而ceph -s卡住有一种可能是:对于有三个MON的集群,挂掉了两个MON之后 ,手动去/etc/ceph/ceph.conf里面把挂掉的MON的IP给删除了, 只留下一个,这时候ceph -s的指令就会一直卡在那里,查看MON的log可以发现,那个活着的MON一直处于probing状态,这样的MON是不会给客户端返回信息的,所以会卡在那里。有一点需要知道的...
通常情况下,需要使用具有管理员权限的用户才能执行一些ceph命令。您可以尝试切换到具有更高权限的用户,或者检查当前用户的权限设置是否合适。 另外,ceph命令没有任何反应还可能是由于Ceph集群本身出现了问题。您可以检查Ceph集群的运行状态,查看集群中各个组件的运行情况是否正常。如果发现汇报异常,您可能需要进行相应的故障...
除了ceph01之外,在ceph02、ceph03节点上执行ceph相关命令时,会出现如下错误 “[errno 2] error connecting to the cluster”, 3.问题原因 发现/etc/ceph/文件夹下无“*.keyring”相关文件,也就是在配置文件目录下不存在密钥环,导致执行命令错误。 4.解决办法 将ceph01配置文件夹下的"*.keyring"拷贝至其他节点...
1.1 检查ceph集群状态及副本数,集群状态正常后再执行步骤1.2。 #ceph -s (集群状态为OK) #ceph osd dump | grep "replicated size" (检查所有pool是否为3副本) 1.2 执行以下命令移除故障OSD,其中{$X}为osd id。(命令执行时确认成功后再执行下一条) ceph osd out {$X} systemctl stop ceph-osd@{$X} ...
Error EINVAL: all MDS daemons must be inactive before removing filesystem # systemctl stop ceph-mds.target # ceph fs rm cephfs Error EPERM:thisisa DESTRUCTIVE operation and will make datainyour filesystem permanently inaccessible. Add --yes-i-really-mean-itifyou are sure you wish tocontinue...
1. ceph常见管理命令总结 1.1 只显示存储池ceph osd pool ls 示例 $ ceph osd pool ls device_health_metrics mypool myrbd1 rbd-data1 1.2 列出存储池并显示idceph osd lspools 示例 $ ceph osd lspools 1 device…
5. 1 full osd(s) 2 nearfull osd(s) https://docs.ceph.com/en/latest/rados/troubleshooting/troubleshooting-osd/#no-free-drive-space $ ceph osd dump | grep full_ratio full_ratio 0.95 backfillfull_ratio 0.9 nearfull_ratio 0.85 处理方法: ...
ceph -s 命令是否能运行并收到集群回复? 如果答案是肯定的,那么你的集群已启动并运行着。你可以认为如果已经形成法定人数,monitors 就只会响应status请求。 如果ceph -s阻塞了,并没有收到集群的响应且输出了很多fault信息,很可能此时你的 monitors 全部都 down 掉了或只有部分在运行(但数量不足以形成法定人数)。
详细过程可以参考Oracle 这篇文章。 注意第二个命令需要在 /etc/ceph 目录下执行,否则,拷贝到 client 节点上的 ceph.conf 会不正确,运行 ceph -s 也会碰到错误 0 librados: client.admin authentication error (1) Operation not permitted。 然后执行下面的命令来创建一个卷并mount给该客户端:...