ceph mds dump 删除一个mds节点 ceph mds rm 0 mds.ceph-node1 ===osd节点相关操作命令=== 查看ceph osd运行状态 ceph osd stat 查看osd映射信息 ceph osd dump 查看osd的目录树 ceph osd tree down掉一个osd硬盘(比如down掉osd.0节点磁盘) ceph osd down 0 在集群中删除一个osd硬盘 ceph osd rm 0 ...
$ ceph fs set fs max_mds 2 mon 时区异常 mon 因为时区有部分异常导致报错如下: 代码语言:javascript 复制 $ ceph -s cluster: id: 2f77b028-ed2a-4010-9b79-90fd3052afc6 health: HEALTH_WARN 9 slow ops, oldest one blocked for 211643 sec, daemons [mon.BJ-YZ-CEPH-94-53,mon.BJ-YZ-CEPH...
节点三执行:hostnamectl set-hostname ceph3 修改后继续执行ceph-deploy mon create-initial,mmp发现还是报错,报错内容又不一样了,中间部分报错内容如下 [ceph2][ERROR ] no valid command found; 10 closest matches: [ceph2][ERROR ] perf dump {<logger>} {<counter>} [ceph2][ERROR ] log reopen [c...
1、查看mds状态 ceph mds stat ceph mds dump 2、删除mds节点 ssh root@mon01 systemctl stop ceph-mds.target ceph mds rm0# 删除一个不活跃的mds# 启动mds后,则恢复正常 3、关闭mds集群 ceph mds cluster_down 4、开启mds集群 ceph mds cluster_up 5、设置cephfs 文件系统存储方式最大单个文件尺寸 ceph...
如果无法解决需要重启 mds 解决: $ systemctl restart ceph-mds@${HOSTNAME} 5. 1 full osd(s) 2 nearfull osd(s) https://docs.ceph.com/en/latest/rados/troubleshooting/troubleshooting-osd/#no-free-drive-space $ ceph osd dump | grep full_ratio ...
解决方案:自己手动在/etc/ceph/文件夹下创建osd mds mon等文件夹 Sudo mkdir /etc/ceph/osd 其他两个如此。 11. 执行命令:ceph osd tree ceph -s ceph health ceph -w ERROR:系统卡住什么也不显示,只能手动切断该过程,所有ceph有关命令全部失效。那么就会报错:ERROR: missing keyring。也就是说,用户client....
记录一次ceph recovery经历,一次cephrecovery经历背景这是一个測试环境。该环境中是cephfs一共12个节点,2个client、2个mds、8个osdmds:2颗CPU,每一个4核。一共是8核。128G内存,单独的两个节点,仅仅作为mdscpu型号:Intel(R)Xeon(R)CPUE
/run/ceph/ceph-mon.node1.asok mon_status[node1][ERROR]no valid command found;10closest matches:[node1][ERROR]perf reset[node1][ERROR]perf histogram schema[node1][ERROR]log reopen[node1][ERROR]log flush[node1][ERROR]perf histogram dump{<logger>}{<counter>}[node1][ERROR]perf dump{<...
ceph运维常用指令,一、集群1、启动一个ceph进程启动mon进程servicecephstart mon.node1启动msd进程servicecephstartmds.node1启动osd进程 servicecephstartosd.02、查看机器的监控状态[root@client~]#cephhealthHEALTH_OK3、查看ceph的实时运行状态[root@c
对于一个刚创建的MDS服务,虽然服务是运行的,但是它的状态直到创建 pools 以及文件系统的时候才会变为Active. [root@dn-5-221 ceph]# ceph mds stat e1: 0/0/0 up [root@ceph-deploy ceph]# ceph mds stat e1: 0/0/0 up [root@ceph-deploy ceph]# ceph mds dump ...