Ceph : ブロックデバイスを利用する2018/12/25 |
以下のような構成の Ceph クラスターストレージを、任意のクライアントから利用できるように設定します。
| +--------------------+ | +--------------------+ | [dlp.srv.world] |10.0.0.30 | 10.0.0.x| [client.srv.world] | | Ceph-Deploy +-----------+-----------+ | | | | | | +--------------------+ | +--------------------+ +----------------------------+----------------------------+ | | | |10.0.0.51 |10.0.0.52 |10.0.0.53 +-----------+-----------+ +-----------+-----------+ +-----------+-----------+ | [node01.srv.world] | | [node02.srv.world] | | [node03.srv.world] | | Object Storage +----+ Object Storage +----+ Object Storage | | Monitor Daemon | | | | | | | | | | | +-----------------------+ +-----------------------+ +-----------------------+ |
例として、クライアント上でブロックデバイスを作成してマウントします。
|
|
[1] | 事前に、設定するクライアントに他ノードと同様、Sudo と
SSH 鍵の設定をし、その後、以下のように管理ノード上からクライアントに向けて Ceph のインストールと共有鍵の配布を実施しておきます。 また、デフォルト RBD プールを作成しておきます。 |
ubuntu@dlp:~/ceph$
ubuntu@dlp:~/ceph$ ceph-deploy install client ubuntu@dlp:~/ceph$ ceph-deploy admin client
sudo ceph osd pool create rbd 8 pool 'rbd' created ubuntu@dlp:~/ceph$ sudo rbd pool init rbd |
[2] | クライアント上でのブロックデバイスの作成とマウントです。 |
# 確認 ubuntu@client:~$ sudo rbd ls -l NAME SIZE PARENT FMT PROT LOCK rbd01 10240M 2 # 確認 ubuntu@client:~$ rbd showmapped id pool image snap device 0 rbd rbd01 - /dev/rbd0ubuntu@client:~$ df -hT Filesystem Type Size Used Avail Use% Mounted on udev devtmpfs 1.9G 0 1.9G 0% /dev tmpfs tmpfs 395M 624K 394M 1% /run /dev/mapper/ubuntu--vg-root ext4 29G 2.3G 25G 9% / tmpfs tmpfs 2.0G 0 2.0G 0% /dev/shm tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup tmpfs tmpfs 395M 0 395M 0% /run/user/0 /dev/rbd0 xfs 10G 44M 10G 1% /mnt |
Sponsored Link |