1、在mon节点打开/etc/ceph/ceph.conf,增加以下 2、重启ceph-mon systemctl restart ceph-mon.target 3、删除pool [root@master ceph]#ceph osd pool delete k8s-volumes k8s-volumes --yes-i-really-really-mean-itpool'k8s-volumes'removed
Error EPERM: pool deletion is disabled; you must first set the mon_allow_pool_delete config option to true before you can destroy a pool cephadmin@ceph-deploy:~/ceph-cluster$ ceph tell mon.* injectargs --mon-allow-pool-delete=true mon.ceph-mon1: {} mon.ceph-mon1: mon_allow_pool_de...
ceph osd pool delete/rm {pool-name} [{pool-name} --yes-i-really-really-mean-it] 要删除池,必须在/etc/ceph/ceph.conf中mon的配置中将mon_allow_pool_delete标志设置为true 6.重命名池 ceph osd pool rename {current-pool-name} {new-pool-name} 7.显示池统计信息 rados df ##显示池的利用率统...
在红帽 Ceph 存储 3 中,Ceph 将mon_allow_pool_delete配置参数设置为false,以此提供额外的保护。使用这一指令时,即使借助--yes-i-really-really-mean-it选项,ceph osd pool delete命令也不会导致池被删除。 您可以将mon_allow_pool_delete参数设置为true,然后重新启动mon服务,以允许删除池。 不过,即使mon_allow...
~]$ ceph osd pool get nodelete 修改的方法如下。 ~]$ ceph osd pool set nodelete false 另一个机制是作用于集群范围,配置参数mon_allow_pool_delete,需要将此参数的值设置为true才可以删除,默认为false,修改方法。 ~]$ ceph tell mon.* injectargs --mon_allow_pool_delete=true ...
ceph 删除pool报错 删除pool的时候提示下面的错误 [root@node3~]# ceph osd pool delete ecpool ecpool —yes-i-really-really-mean-it Error EPERM: pool deletion is disabled; you must first set the mon_allow_pool_delete config option to true before you can destroy a pool ...
ceph osd pool create cephfs_data ceph fs new cephfs cephfs_metadata cephfs_data 注:存储池默认为3副本。 删除文件系统 关闭文件系统:ceph fs set cephfs down true 删除文件系统:ceph fs rm cephfs 删除池: 将允许删除设置为允许:ceph config set mon "mon_allow_pool_delete" true ...
否则会报错ErrorEPERM:pool deletionisdisabled;you must firstsetthe mon_allow_pool_delete config option totruebefore you can destroy a pool ceph osd pool rm{pool-name}{pool-name}--yes-i-really-really-mean-it# 查看副本数ceph osd poolget{pool-name}size# 设置副本数ceph osd poolset{pool-name...
1) 创建 pool 操作: ceph osd create pool ${pool-name} ${pg_num} ${pgp_num} 2) 这里强制选择 pg_num 和 pgp_num,因为 ceph 集群不能自动计算 pg 数量。 3) 官方建议的 pg 使用数量 小于5 个 osd 设置 pg_num 为 128 5到 10 个 osd 设置 pg_num 为 512 ...
开启删除pool权限 vim ceph.conf mon_allow_pool_delete = true 覆盖配置文件 ceph-deploy--overwrite-conf admin ceph-object-01ceph-object-02ceph-object-03 重启mon|mgr进程 # 查看ceph服务[root@ceph-object-01my-cluster]# systemctl list-units--type=service|grep ceph ceph-mgr@ceph-object-01.service...