[root@inf-c7-n1 ~]# rbd snap remove -p vms image1@image1_snap01 2021-09-2617:22:35.739 7f6a6e2a2c80-1librbd::Operations: snapshot is protected Removing snap:0% complete...failed. rbd: snapshot'image1_snap01'is protected from removal. [root@inf-c7-n1 ~]# rbd snap unprotect -p...
cephrbd常用命令 cephrbd常⽤命令 获取映像列表 要挂载块设备映像,先罗列出所有的映像。rbd list 映射块设备 ⽤rbd把映像名映射为内核模块。必须指定映像名、存储池名、和⽤户名。若 RBD 内核模块尚未加载,rbd命令会⾃动加载。sudo rbd map {pool-name}/{image-name} --id {user-name} 例如:sudo ...
source osdmap.new 查看osdmap命令 https://www.cnblogs.com/sisimi/p/7737177.html 客户端块存储的操作: rbd showmapped # 查看挂载了哪写块存储 rbd unmap /dev/rbd0 #卸载 客户端扩容ceph镜像: 1.找到image信息(客户端) rbd showmapped # 列出poolname和image id id pool image snap device 0 rbd_sb...
1.rbd ls 查看ceph默认资源池rbd里面的镜像 2.rbd info xxx.img 查看xxx.img的具体的具体信息 3.rbd rm xxx.img 删除xxx.img 4.rbd cp aaa.img bbb.img 拷贝镜像aaa.img为bbb.img 5.rbd rename aaa.img bbb.img 重命名aaa.img为bbb.img 6.rbd import aaa.img 将本地的aaa.img导入ceph集群中 7....
2、RBD常用命令 # 创建pool # 若少于5个OSD, 设置pg_num为128。 #5~10个OSD,设置pg_num为512。 #10~50个OSD,设置pg_num为4096。 # 超过50个OSD,可以参考pgcalc计算。 ceph osd pool create rbd128128rbd pool init rbd # 删除pool ceph osd poolrmrbd rbd –yes-i-really-really-mean-it ...
二、RBD常用命令 三、RBD配置操作 3.1 RBD挂载到操作系统 1、创建rbd使用的pool #32 32: PG数和PGP数(PG内包含的对象);PG会随着容量的增加也会动态的扩容;生产上需要提前规划好数量 ceph osd pool create rbd 32 32 #给rbd使用的pool标识成rbd
接下来,我们可以开始使用 Ceph RBD。首先,您需要在 Ceph 集群中创建一个 RBD 镜像。可以使用如下命令创建一个名为 myimage 的镜像: ``` rbd create mypool/myimage --size 1024 --image-format 2 ``` 这个命令将创建一个大小为 1024MB 的镜像。您可以根据需要指定其他大小。
[ceph@ceph-deploy ceph-cluster]$ rbd pool init -p myrdb1 #通过 RBD 命令对存储池初始化 1. 2. 3. 1.2 生成 img (镜像)文件 rbd 存储池并不能直接用于块设备,而是需要事先在其中按需创建映像(image), 并把映像文件作为块设备使用,rbd 命令可用于创建、查看及删除块设备相在的映像(image), 以及克隆...
# (1). 手动创建 ceph rbdrbd create volume001 --size 1024 -m ceph-node1 -k /etc/ceph/ceph.client.admin.keyring#(2) 禁用 rbd 的一些特性rbd feature disable volume001 exclusive-lock, object-map, fast-diff, deep-flatten#(3) 获取 ceph 集群 admin 的密钥的 base64grep key /etc/ceph/ceph...