通过对 ceph osd tree 查看 所有的 class 类都是 hdd, 如果自动设备检测出错,可以手动修改 ceph osd crush rm-device-classosd.0 手动添加ssd类 ceph osd crushset-device-classssd osd.0 更改crush rule名字: osd crush rule rename <srcname> <dstname> 例如: ceph osd crush rule rename ssd-rule ssd_...
#在集群中删除一个 osd,可能需要先 stop 该 osd,即 stop osd.0$ ceph osd rm0 2.9 从crush map中删除osd #从 crush map 中删除一个 osd$ ceph osd crush rm osd.0 2.10 删除host节点 #在集群中删除一个host节点$ ceph osd crush rm node1 2.11 查看最大osd个数 #查看最大osd的个数,默认最大是4...
systemctl stop ceph-osd@{$X} #把 OSD 踢出集群后,它可能仍在运行,就是说其状态为 up 且 out 。删除前要先停止 OSD 进程 ceph osd crush rm osd.{$X} ceph auth del osd.{$X} ceph osd rm {$X} 2.检查ceph集群状态 2.1 故障OSD移除后执行ceph -s检查集群状态是否ok;正常后再进行后续操作。
ceph osd crush add/set osd.{osd-id} {weight} {args} 上述命令中的{weight}值表明该osd的存储能力(容量),一般1T的盘,weight设为1,{args}知道该osd位置。 删除层级结构 将子bucket从父bucket下删除: ceph osd crush rm {bucket_name} {parent_bucket_name} 只有当一个bucket下没有子bucket时,它才能被...
51CTO博客已为您找到关于ceph osd crush rule的相关内容,包含IT学习相关文档代码介绍、相关教程视频课程,以及ceph osd crush rule问答内容。更多ceph osd crush rule相关解答可以来51CTO博客参与分享和学习,帮助广大IT技术人实现成长和进步。
osd 根据磁盘类型分组调整 ###查看已有磁盘类型ceph osd crush classls###如不满足多个类型, 先删除osd已有类型foriin{0..11};doceph osd crush rm-device-class osd.$i;done###将指定磁盘设置分组foriin{0..11};doceph osd crush set-device-class ssd osd.${i};done###新建ssd和hdd磁盘对应分类规则...
正常情况下OSD的状态是up in状态,如果down掉OSD,它的状态会变为down in,等待数据均衡完成后osd变为down out状态,Ceph 会把其归置组迁移到其他OSD, CRUSH 就不会再分配归置组给它。 3. 查看OSD的状态 # 查看集群的osd状态 # 查看指定osd的状态:ceph osd dump 3 ...
Ceph 消除了集中网关,允许客户端直接和 Ceph OSD 守护进程通讯。 Ceph OSD 守护进程自动在其它 Ceph 节点上创建对象副本来确保数据安全和高可用性; 为保证高可用性,监视器也实现了集群化。 为消除中心节点, Ceph 使用了 CRUSH 算法。 CRUSH算法 Ceph 客户端和 OSD 守护进程都用 CRUSH 算法来计算对象的位置信息,而...
1. 增加 OSD(手动) 要增加一个 OSD,要依次创建数据目录、把硬盘挂载到数据目录、把 OSD 加入集群、然后把它加入 CRUSH Map。 Tip:Ceph 喜欢统一的硬件,与存储池无关。如果你要新增容量不一的硬盘驱动器,还需调整它们的权重。但是,为实现最佳性能,CRUSH 的分级结构最好按类型、容量来组织。
降级就是在发生了一些故障比如OSD挂掉之后,Ceph 将这个 OSD 上的所有 PG 标记为 Degraded。 降级的集群可以正常读写数据,降级的 PG 只是相当于小毛病而已,并不是严重的问题。 Undersized的意思就是当前存活的PG 副本数为 2,小于副本数3,将其做此标记,表明存货副本数不足,也不是严重的问题。