Glusterfs
説明 [#k5b66e50]
以降の設定は全て「gluster」を実行して、対話式でも実行可能です。
その場合は「# gluster」の箇所を「gluster>」に読み替えてください。
構成 [#rc06485e]
-SVR01 CentOS6.3 x86_64 -SVR02 CentOS6.3 x86_64 -同期対象のディレクトリ:それぞれ/var/www/html配下 -Gluisterfsのbrickを保存するディレクトリ:/glusterfs/brick
作業内容 [#ca9e3615]
●Peer登録
※↓SVR01のみ
# gluster peer probe SVR02
※↓SVR02のみ
# gluster peer probe SVR02
# gluster peer status
'State'がすべて'Connected'になっていることを確認
●Peerの削除:不要なPeerを削除する場合
# gluster peer detach SVR01
●replicaタイプのGlusterFS作成
※↓どちらか片方のサーバーでのみ実行
# gluster volume create gluster_vol replica 2 SVR01:/glusterfs/brick00 SVR02:/glusterfs/brick00
●ボリューム削除:volume作成間違いの場合
# gluster volume stop gluster_vol
# gluster volume delete gluster_vol
# setfattr -x trusted.glusterfs.volume-id $brick_path ←(/data)
# setfattr -x trusted.gfid $brick_path
# rm -rf $brick_path/.glusterfs
●Volumeの情報の確認:2台で実施
# gluster volume info
Volume Name: gluster_vol
Type: Replicate
Volume ID: 720ad6af-8283-4381-8f48-3a01a9163c9b
Status: Created
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: SVR01:/glusterfs/brick00
Brick2: SVR02:/glusterfs/brick00
●Volumeの状態の確認
# gluster volume status
Volume gluster_vol is not started
●Volumeの開始
# gluster volume start gluster_vol
Starting volume gluster_vol has been successful
●Volumeの状態の確認
# gluster volume status
Status of volume: gluster_vol
Gluster process Port Online Pid
------------------------------------------------------------------------------
Brick SVR01:/glusterfs/brick00 24009 Y 2769
Brick SVR02:/glusterfs/brick00 24009 Y 2651
NFS Server on localhost 38467 Y 2774
Self-heal Daemon on localhost N/A Y 2780
NFS Server on SVR02 38467 Y 2656
Self-heal Daemon on SVR02 N/A Y 2662
●Glusterfsのマウント:各々のサーバーで実施
# mount -t glusterfs SVR01:gluster_vol /var/www/html
※自分のサーバー名:Volume名 マウント対象(同期したい)ディレクトリ
●fstabに登録:サーバー起動時に自動マウント
# vi /etc/fstab
SVR01:gluster_vol /var/www /html glusterfs defaults,_netdev 0 0
※「_netdev」を追加することで、glusterdの起動後にマウントする。
以上で作業完了です。