使用CephFS文件系统
创建池
ceph文件系统需要驻留在pool上,至少需要创建一个data和一个metadata pool
1 | $ sudo ceph osd pool create cephfs_data 128 |
创建文件系统
1 | $ sudo ceph fs new cephfs cephfs_metadata cephfs_data |
查看mds状态
1 | $ sudo ceph mds stat |
没有创建文件系统之前,所有的mds实例都为standby状态
集群状态
1 | $ sudo ceph -s |
fuse挂载cephfs
安装客户端和fuse
1 | $ sudo apt install ceph-common ceph-fuse |
将集群配置/etc/ceph/*拷贝到客户机相同位置
挂载
1 | $ sudo ceph-fuse /path/to/mount |
或者指定monitor地址
1 | $ sudo ceph-fuse -m ip_of_monitor /path/to/mount |
/etc/fstab:
1 | none /mnt/mycephfs fuse.ceph ceph.id=admin,_netdev,defaults 0 0 |
这里指定使用admin用户,使用其他用户需要提前建立用户keyring
内核驱动挂载cephfs
1 | $ sudo mount.ceph 192.168.3.8:/ /mnt/mycephfs -o name=admin,secret=AQBHybZdKRryLRAAY9jTUkPpNcXmeykzFPNTTw== |
如果不指定name选项,默认使用guest用户
当前内核驱动使用msgr v1协议与ceph集群通讯,因此应该使用6789端口,指定3300端口无法连接。
后记:
只要/etc/ceph目录下的文件普通用户可以读取,特别是keyring文件,那么普通用户就可以连接到集群使用所有的ceph命令。
References:
[1]CREATE A CEPH FILESYSTEM
[2]MOUNT CEPHFS WITH THE KERNEL DRIVER
[3]CEPHFS ADMINISTRATIVE COMMANDS
[4]cephx
[5]Ceph Pool操作总结
[6]POOLS
[7]Mount Ceph Filesystem
[8]MOUNT CEPHFS IN YOUR FILE SYSTEMS TABLE
[9]Ceph 文件系统 CephFS 的介绍与配置
[10]CEPHFS SHELL