説明†以降の設定は全て「gluster」を実行して、対話式でも実行可能です。 構成†
作業内容†●Peer登録 ※↓SVR01のみ # gluster peer probe SVR02 ※↓SVR02のみ # gluster peer probe SVR02 # gluster peer status 'State'がすべて'Connected'になっていることを確認 ●Peerの削除:不要なPeerを削除する場合 # gluster peer detach SVR01 ●replicaタイプのGlusterFS作成 ※↓どちらか片方のサーバーでのみ実行 # gluster volume create gluster_vol replica 2 SVR01:/glusterfs/brick00 SVR02:/glusterfs/brick00 ●ボリューム削除:volume作成間違いの場合 # gluster volume stop gluster_vol # gluster volume delete gluster_vol # setfattr -x trusted.glusterfs.volume-id $brick_path ←(/data) # setfattr -x trusted.gfid $brick_path # rm -rf $brick_path/.glusterfs ●Volumeの情報の確認:2台で実施 # gluster volume info Volume Name: gluster_vol Type: Replicate Volume ID: 720ad6af-8283-4381-8f48-3a01a9163c9b Status: Created Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: SVR01:/glusterfs/brick00 Brick2: SVR02:/glusterfs/brick00 ●Volumeの状態の確認 # gluster volume status Volume gluster_vol is not started ●Volumeの開始 # gluster volume start gluster_vol Starting volume gluster_vol has been successful ●Volumeの状態の確認 # gluster volume status Status of volume: gluster_vol Gluster process Port Online Pid ------------------------------------------------------------------------------ Brick SVR01:/glusterfs/brick00 24009 Y 2769 Brick SVR02:/glusterfs/brick00 24009 Y 2651 NFS Server on localhost 38467 Y 2774 Self-heal Daemon on localhost N/A Y 2780 NFS Server on SVR02 38467 Y 2656 Self-heal Daemon on SVR02 N/A Y 2662 ●Glusterfsのマウント:各々のサーバーで実施 # mount -t glusterfs SVR01:gluster_vol /var/www/html ※自分のサーバー名:Volume名 マウント対象(同期したい)ディレクトリ ●fstabに登録:サーバー起動時に自動マウント # vi /etc/fstab SVR01:gluster_vol /var/www /html glusterfs defaults,_netdev 0 0 ※「_netdev」を追加することで、glusterdの起動後にマウントする。
|