ceph osd tree:显示 OSD 树,即显示每个 OSD 的编号、主机名、状态、容量等信息,以及 CRUSH 算法对存储设备的映射关系。 ceph osd df:显示 OSD 的使用情况,包括总容量、已用空间、可用空间等信息。 ceph osd pool ls:列出所有的 OSD数据存储池,包括数据存储池名称、ID 等信息。 ceph osd pool stats:显示 OSD...
作用:检查Ceph集群的健康状态,返回"OK"表示正常,返回其他信息表示有问题。 ceph osd tree 作用:查看Ceph集群中所有OSD的拓扑信息,包括每个OSD的ID、状态、权重等。 ceph df 作用:查看Ceph集群存储的使用情况,包括已使用容量、总容量、利用率等。 ceph osd pool ls 作用:列出所有的存储池(pool),包括每个存储池的...
OSD是Ceph的关键组件之一,因此OSD故障或下线可能会对整个Ceph集群的数据可靠性和性能产生负面影响。 当Ceph集群中的OSD出现问题时,管理员需要及时检测和解决故障,以保证数据的稳定和可靠性。在Ceph中,可以通过“ceph osd tree”命令查看OSD的状态和拓扑结构。如果发现OSD tree中某个OSD状态为down,表明该OSD下线或故障。
ceph -s # 查看Ceph集群状态,确保为HEALTH_OK
ceph osd tree -f json-pretty > zp.json curl --upload-file ./zp.json https://transfer.sh/zp.json 得到的地址下载即可 默认结构,主机分组 960个osd的效果如图,节点太多了,图片本身输出的时候是高清图片可以放大去看的,并且主机如果不是这么多,显示效果会好一点,这里我们看的清楚是主机分组的 ...
1、ceph osd tree查看osd【5,4,6】其中一个所在的节点 2、ssh ceph-nodeN,进入该节点 #osd.5所在的node节点 3、df -h | grep -i ceph-5找出该osd.5的物理存储位置 ,ceph-5是指osd.5 4、cd /var/lib/ceph/osd/ceph-5/current进入osd.5所在的物理存储文件夹 ...
1. Scalability: The OSD tree enables seamless scalability by providing a clear view of the existing OSD deployment. With this knowledge, administrators can easily add or remove OSDs from the cluster, depending on the storage requirements. The ability to scale horizontally without disruption ensures ...
ceph-osd1 1 sdc sata ceph-osd2 2 sdb ssd ceph-osd2 3 sdc sata 与正常ceph安装没有区别,只是后期会修改CRUSH。 部署环境 假设你已经部署好ceph了,ceph默认的CRUSH故障域是host级别。 查看当前CRUSH [root@ceph-osd1 ~]# ceph osd tree ID WEIGHT TYPE NAMEUP/DOWNREWEIGHT PRIMARY-AFFINITY ...
查看状态命令:查看ceph集群状态:ceph -s 查看mon状态:ceph mon stat 查看msd状态:ceph msd stat 查看osd状态:ceph osd stat 查看osd目录树(可以查看每个osd挂在哪台机,是否已启动):ceph osd tree 启动ceph进程命令:需要在对应的节点进行启动(如果对应节点没有该服务,会进行提示)启动mon进程:service ceph start ...
# 5.2 挨个重启systemctl restart ceph-osd@0 systemctl restart ceph-osd@1 systemctl restart ceph-osd@2 了解:也可以根据进程类型+主机名.service # 1 mon 守护进程systemctl{start|stop|restart}ceph-mon@{mon_instance}.service 例 systemctl restart ceph-mon@mon01.service ...