发现osd.1是down掉的。 2、将osd.1的状态设置为out root@ceph02:~# ceph osd out osd.1 osd.1 is already out. 3、从集群中删除 root@ceph02:~# ceph osd rm osd.1 removed osd.1 4、从CRUSH中删除 root@ceph02:~# ceph osd crush rm osd.1 removed item id 1 name 'osd.1' from crush m...
1. 检查网络连接:首先确认网络连接是否正常,包括各个OSD节点之间的网络连接、Monitor节点和OSD节点之间的网络连接等。有可能是网络故障导致OSD down。 2. 检查硬件状态:检查硬件设备是否正常,包括硬盘、网卡、CPU等。可能是硬件故障导致OSD down。 3. 检查Ceph配置:检查Ceph集群的配置文件是否正确,包括各个节点的配置文...
Ceph OSD Down恢复是一个重要的主题,因为Ceph是一种开源的分布式存储系统,广泛应用于大规模的数据存储和处理。OSD(Object Storage Device)作为Ceph的核心组件之一,负责存储和管理数据。当一个OSD出现故障或停止工作时,会对整个Ceph集群的功能和性能产生重大影响。因此,恢复OSD的功能至关重要,以确保系统的连续性和可靠性...
root@ceph02:~# ceph osd crush rm osd.1removed item id1name'osd.1'fromcrush map 5、删除osd.1的认证信息 root@ceph02:~# ceph auth del osd.1updated 6、umount umount /dev/sdb1 7、再次查看osd的集群状态 root@ceph02:~# ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY...
重新启动服务:尝试重新启动Ceph集群中相关的服务,如Ceph OSD(Object Storage Daemon)和Ceph Monitor。这可以通过执行适当的系统命令或使用Ceph管理工具来完成。 数据恢复:一旦存储节点和集群恢复正常,Ceph将自动开始数据的恢复过程。这包括重新平衡PG、恢复丢失的数据和修复冗余。 对于Ceph集群的非活动PG恢复,腾讯云提供...
开始恢复 11:登陆安装配置主机(ceph-deploy) cd /etc/ceph/ 12:初始化磁盘: ceph-deploy osd prepare node243:/dev/sdb 13:激活磁盘 ceph-deploy osd activate node243:/dev/sdb 14:查看磁盘状态,验证添加是否成功 ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY ...
CephOSD状态分析 up、down代表OSD临时故障或下电,不会发起数据恢复;in、out代表被踢出集群,集群发起数据恢复。OSD 的状态通过心跳检测的方式被集群确认,即拥有心跳的 OSD 被标记为 up,心跳停止的 OSD 则被标记为 down。当 OSD 被标记为 down的时间超过的阈值(默认为600秒)时,OSD 被标记为 out。
进行OSD 排障前,先检查一下 monitors 和网络。如果 ceph health 或 ceph -s 返回的是健康状态,这意味着 monitors 形成了法定人数。如果 monitor 还没达到法定人数、或者 monitor 状态错误,要先解决 monitor 的问题。核实下你的网络,确保它在正常运行,因为网络...
centos7下ceph搭建好了后,我想要动态增加osd,增加的osd也都显示已经启动,如下: #/etc/init.d/ceph -a start === mon.0 === Starting Ceph mon.0 on node56...already running === mds.0 === Starting Ceph mds.0 on node56...already running === osd...显示全部 回答...