命令查看OSD状态:ceph osd tree 参数说明: 新版Ceph默认是使用bluestore引擎,osd格式化后挂载到主机的/var/lib/ceph/<Ceph_Cluster_ID>/osd.<OSD_ID>/目录中。 指定osd0路径,执行命令查看: root@ceph-node1:~# ll /var/lib/ceph/38c60b7c-8c6f-11ef-8b92-c929f534b368/osd.0/ total 72 drwx--- 2...
很久没有处理很大的集群,在接触一个新集群的时候,如果集群足够大,需要比较长的时间才能去理解这个集群的结构,而直接去看ceph osd tree的结果,当然是可以的,这里是把osd tree的结构进行了一个结构化输出,也可以理解为画出一个简单的结构图,比较适合给其它人讲解你对crush做了哪些改变,这个如果指着文字来讲估计很多...
Ceph通过伙伴OSD汇报失效节点和Monitor统计来自OSD的心跳两种方式判定OSD节点失效。 - 及时:伙伴OSD可以在秒级发现节点失效并汇报Monitor,并在几分钟内由Monitor将失效OSD下线。 - 适当的压力:由于有伙伴OSD汇报机制,Monitor与OSD之间的心跳统计更像是一种保险措施,因此OSD向Monitor发送心跳的间隔可以长达600秒,Monitor的...
[root@node1 ~]# ceph osd tree 2)常见错误(非必须操作) 如果查看状态包含如下信息: health: HEALTH_WARN clock skew detected on node2, node3… clock skew表示时间不同步,解决办法:请先将所有主机的时间都使用NTP时间同步!!! Ceph要求所有主机时差不能超过0.05s,否则就会提示WARN。 如果状态还是失败,可以尝...
Monitor一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据。 OSDOSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。 MDSMDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务。
1. ceph常见管理命令总结 1.1 只显示存储池 ceph osd pool ls 示例 $ ceph osd pool ls device_health_metrics mypool myrbd1 rbd-data1 1.2 列出存储池并显示id ceph osd lspools 示例 $ c
可以发现新增节点权重都是0,这是由于之前配置的“osd_crush_initial_weight”参数,预防新增节点或磁盘进来时进行数据平衡。 代码语言:javascript 代码运行次数:0 运行 AI代码解释 # ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.05878 root default -7 0.01959 host node001 2 hdd 0.0...
从Ceph 12.2.0(Luminous)版本开始的。在 Luminous 版本中,BlueStore被引入作为一种新的、高性能的 OSD 存储引擎,以替代旧的FileStore引擎。 在Ceph 中,BlueStore 可以提供更快的响应时间和更高的数据吞吐量,同时也具有更好的可靠性和稳定性。相比之下,旧的 FileStore 存储引擎通常需要更多的 CPU 和内存资源,对 IO...
ceph osd rm - 从集群中删除一个OSD。ceph osd scrub - 手动启动OSD的洗刷过程。ceph osd set - 设置OSD的标志。ceph osd stat - 显示OSD的状态。ceph osd tree - 显示CRUSH层次结构的树形图。ceph osd unset - 取消设置OSD的标志。ceph osd utilization - 显示OSD的利用率。ceph osd versions - 显示集群...