Ceph : ファイルシステムとして利用する2018/12/25 |
以下のような構成の Ceph クラスターストレージを、任意のクライアントから利用できるように設定します。
| +--------------------+ | +--------------------+ | [dlp.srv.world] |10.0.0.30 | 10.0.0.x| [client.srv.world] | | Ceph-Deploy +-----------+-----------+ | | | | | | +--------------------+ | +--------------------+ +----------------------------+----------------------------+ | | | |10.0.0.51 |10.0.0.52 |10.0.0.53 +-----------+-----------+ +-----------+-----------+ +-----------+-----------+ | [node01.srv.world] | | [node02.srv.world] | | [node03.srv.world] | | Object Storage +----+ Object Storage +----+ Object Storage | | Monitor Daemon | | | | | | | | | | | +-----------------------+ +-----------------------+ +-----------------------+ |
例として、クライアント上でファイルシステムとしてマウントして利用します。
|
|
[1] | 管理ノード上で MDS (MetaData Server) とするノードを設定しておきます。 当例では node01 で進めます。 |
ubuntu@dlp:~/ceph$ ceph-deploy mds create node01 |
[2] | 事前に、MDS を設定したノード上で、少なくとも二つの RADOS プールを作成し、MetaData Server をアクティブにしておきます。
なお、プール作成時にコマンドの末尾に指定する数値は公式ドキュメントを参照の上、決定してください。 ⇒ http://docs.ceph.com/docs/master/rados/operations/placement-groups/ |
# プール作成 ubuntu@node01:~$ sudo ceph osd pool create cephfs_data 128 pool 'cephfs_data' created ubuntu@node01:~$ sudo ceph osd pool create cephfs_metadata 8 pool 'cephfs_metadata' created # プール有効化 ubuntu@node01:~$ sudo ceph fs new cephfs cephfs_metadata cephfs_data new fs with metadata pool 4 and data pool 3 # 確認 ubuntu@node01:~$ sudo ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ] ubuntu@node01:~$ sudo ceph mds stat cephfs-1/1/1 up {0=node01=up:active} |
[3] | クライアント上でのファイルシステムのマウントです。 |
root@client:~#
apt -y install ceph-fuse # admin キー取得 root@client:~# ssh ubuntu@node01.srv.world "sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring" > admin.key ubuntu@node01.srv.world's password: root@client:~# chmod 600 admin.key
mount -t ceph node01.srv.world:6789:/ /mnt -o name=admin,secretfile=admin.key root@client:~# df -hT Filesystem Type Size Used Avail Use% Mounted on udev devtmpfs 1.9G 0 1.9G 0% /dev tmpfs tmpfs 395M 624K 394M 1% /run /dev/mapper/ubuntu--vg-root ext4 29G 2.3G 25G 9% / tmpfs tmpfs 2.0G 0 2.0G 0% /dev/shm tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup tmpfs tmpfs 395M 0 395M 0% /run/user/0 10.0.0.51:6789:/ ceph 8.5G 0 8.5G 0% /mnt |
Sponsored Link |