Ceph Jewel : ブロックデバイスを利用する2015/12/10 |
以下のような構成の Ceph クラスターストレージを、任意のクライアントから利用できるように設定します。
| +--------------------+ | +-------------------+ | [dlp.srv.world] |10.0.0.30 | 10.0.0.x| [ Client ] | | Ceph-Deploy +-----------+-----------+ | | | | | | +--------------------+ | +-------------------+ +----------------------------+----------------------------+ | | | |10.0.0.51 |10.0.0.52 |10.0.0.53 +-----------+-----------+ +-----------+-----------+ +-----------+-----------+ | [node01.srv.world] | | [node02.srv.world] | | [node03.srv.world] | | Object Storage +----+ Object Storage +----+ Object Storage | | Monitor Daemon | | | | | | | | | | | +-----------------------+ +-----------------------+ +-----------------------+ |
例として、クライアント上でブロックデバイスを作成してマウントします。
|
|
[1] | 事前に、設定するクライアントに他ノードと同様、Sudo と SSH 鍵の設定をし、その後、以下のように管理ノード上からクライアントに向けて Ceph のインストールと共有鍵の配布を実施しておきます。 |
[cent@dlp ceph]$ ceph-deploy install client [cent@dlp ceph]$ ceph-deploy admin client
|
[2] | クライアント上でのブロックデバイスの作成とマウントです。 |
[cent@client ~]$ # 10G のディスクを作成 [cent@client ~]$ rbd create disk01 --size 10G --image-feature layering
# 確認 [cent@client ~]$ rbd ls -l NAME SIZE PARENT FMT PROT LOCK disk01 10240M 2 # 作成したイメージをデバイスにマッピング [cent@client ~]$ sudo rbd map disk01 /dev/rbd0 # 確認 [cent@client ~]$ rbd showmapped id pool image snap device 0 rbd disk01 - /dev/rbd0[cent@client ~]$ df -hT Filesystem Type Size Used Avail Use% Mounted on /dev/mapper/cl-root xfs 26G 1.9G 25G 7% / devtmpfs devtmpfs 2.0G 0 2.0G 0% /dev tmpfs tmpfs 2.0G 0 2.0G 0% /dev/shm tmpfs tmpfs 2.0G 8.4M 2.0G 1% /run tmpfs tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup /dev/vda1 xfs 1014M 230M 785M 23% /boot tmpfs tmpfs 396M 0 396M 0% /run/user/0 /dev/rbd0 xfs 10G 33M 10G 1% /mnt |
Sponsored Link |