Gluster 4.0 : レプリカ構成2016/08/06 |
GlusterFS によるストレージクラスターの設定です。
例として、2台の GlusterFS サーバーでレプリカ構成のボリュームを作成します。
全サーバーにデータのレプリカが保存される RAID1 のような構成です。
なお、当例ではサーバー2台のシンプルな構成ですが、GlusterFS
サーバーのボリュームは 2台以上構成も可能、且つ、ボリュームは複数クライアントからマウント可能です。
| +----------------------+ | +----------------------+ | [GlusterFS Server#1] |10.0.0.51 | 10.0.0.52| [GlusterFS Server#2] | | node01.srv.world +----------+----------+ node02.srv.world | | | | | +----------------------+ +----------------------+ |
前提として、クラスターを構成するノード群では GlusterFS に割り当てる領域は / パーティションとは別であることが推奨です。
( / 配下の任意のディレクトリでも設定は可能だが、非推奨のため、設定の際に強制オプションの付加が必要 )
|
|
[1] | |
[2] | 全ノードで、ボリュームに割り当てるディレクトリを作成しておきます。 ( 当例では、全ノードで sdb1 を /glusterfs にマウント済み ) |
[root@node01 ~]# mkdir /glusterfs/replica |
[3] | いずれかのノードで以下のように設定します。 |
# 他のノードを探す [root@node01 ~]# gluster peer probe node02 peer probe: success. # 状態を表示 [root@node01 ~]# gluster peer status Number of Peers: 1 Hostname: node02 Uuid: 0e1917c8-7cd0-4578-af65-46a1489b10b1 State: Peer in Cluster (Connected) # ボリュームを作成 [root@node01 ~]# gluster volume create vol_replica replica 2 transport tcp \ node01:/glusterfs/replica \ node02:/glusterfs/replica volume create: vol_replica: success: please start the volume to access data # 作成したボリュームを起動 [root@node01 ~]# gluster volume start vol_replica volume start: vol_replica: success # ボリューム情報確認 [root@node01 ~]# gluster volume info Volume Name: vol_replica Type: Replicate Volume ID: f496e38f-9238-4721-92bf-78fbaace7758 Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: node01:/glusterfs/replica Brick2: node02:/glusterfs/replica Options Reconfigured: transport.address-family: inet nfs.disable: on performance.client-io-threads: off |
[4] |
GlusterFS ボリュームをマウントして利用するための
クライアント側の設定はこちらを参照ください。
|
Sponsored Link |