Ceph是一个被广泛应用于分布式存储系统中的开源软件项目,而OSD(Object Storage Daemon)则是Ceph存储集群中的一个重要组件,负责管理数据的存储和恢复。在Ceph中,OSD的分布和管理是由CRUSH算法来实现的。 CRUSH(Controlled Replication Under Scalable Hashing)是Ceph中的一个重要算法,用于确定数据在存储集群中的位置。CRUSH...
在删除OSD之前,需要停止该OSD的服务,可以通过在OSD节点上运行`systemctl stop ceph-osd@{osd编号}`命令来停止OSD服务。 5. 删除OSD 最后一步就是删除OSD。可以通过在OSD节点上运行`ceph osd crush remove osd.{osd编号}`和`ceph osd rm osd.{osd编号}`命令来彻底删除该OSD。删除之后,Ceph会重新平衡数据,确保...
这个一直是我处理故障的节点osd的方式,其实这个会触发两次迁移,一次是在节点osd out以后,一个是在crush remove以后,两次迁移对于集群来说是不好的,其实是调整步骤是可以避免二次迁移的 新的处理方式(推荐) 调整osd的crush weight ceph osd crush reweight osd.0 0.1 说明:这个地方如果想慢慢的调整就分几次将crush...
ceph osd crush remove {name} Remove the OSD authentication key. ceph auth del osd.{osd-num} The value of ceph for ceph-{osd-num} in the path is the $cluster-$id. If your cluster name differs from ceph, use your cluster name instead. Remove the OSD. ceph osd rm {osd-num} #...
ceph osd out osd.4 (2)在相应的节点,停止ceph-osd服务 systemctl stopceph-osd@4.service systemctl disableceph-osd@4.service (3)删除 CRUSH 图的对应 OSD 条目,它就不再接收数据了 ceph osd crush remove osd.4 (4)删除 OSD 认证密钥 ceph auth del osd.4 ...
1. 增加 OSD(手动) 要增加一个 OSD,要依次创建数据目录、把硬盘挂载到数据目录、把 OSD 加入集群、然后把它加入 CRUSH Map。 Tip:Ceph 喜欢统一的硬件,与存储池无关。如果你要新增容量不一的硬盘驱动器,还需调整它们的权重。但是,为实现最佳性能,CRUSH 的分级结构最好按类型、容量来组织。
ceph osd crushremove{name} 该步骤会触发数据的重新分布。等待数据重新分布结束,整个集群会恢复到HEALTH_OK状态。 删除OSD 认证密钥: ceph auth del osd.{osd-num} 删除OSD 。 ceph osd rm {osd-num} #for example ceph osd rm 1 卸载OSD 的挂载点。
Ceph 消除了集中网关,允许客户端直接和 Ceph OSD 守护进程通讯。 Ceph OSD 守护进程自动在其它 Ceph 节点上创建对象副本来确保数据安全和高可用性; 为保证高可用性,监视器也实现了集群化。 为消除中心节点, Ceph 使用了 CRUSH 算法。 CRUSH算法 Ceph 客户端和 OSD 守护进程都用 CRUSH 算法来计算对象的位置信息,而...
手动剔除osd 代码语言:javascript 复制 [root@server3 ~]# systemctl stop ceph-osd@3 [root@server3 ~]# ceph osd out 3 marked out osd.3. [root@server3 ~]# ceph osd crush remove osd.3 removed item id 3 name 'osd.3' from crush map [root@server3 ~]# ceph auth del osd.3 updated ...
2. 暂停 osd 服务 systemctl stop ceph-osd@xxxx.service 3. 删除 osd ceph osd crush remove osd.xxx ceph auth del osd.xxxx ceph osd rm osd.xxx 4. 准备 osd ceph-deploy 2.1 以后准备和激活合并为一个 ceph-deploy osd create --data /dev/sdxxx host_ip ...