首先,需要登录到Ceph集群的管理节点,然后执行以下命令: ```bash ceph osd set noout ``` 执行上述命令后,集群将设置`noout`参数,禁止在任何OSD上进行out操作。如果需要取消`noout`参数,可以执行以下命令: ```bash ceph osd unset noout ``` 通过合理设置`noout`参数,我们可以有效地维护和管理Ceph集群,确保其稳...
设置OSDnoout标志,以防止 OSD 在迁移期间被标记为 down: ceph osd set noout Copy 设置OSDnobackfill、norecover、norrebalance、noscrub和nodeep-scrub标志,以避免集群出现不必要的负载,并在节点停机时避免任何数据被重新创建: ceph osd set nobackfill ceph osd ...
因此另一种折衷方法就是单独调整已满 OSD 的 near full 和 full 比例;也可以使用调低 OSD 的 crush weight 的方法,使已满 OSD 上的数据迁移一部分出去。 复制 # 调整单个 osd 的比例ceph tell osd.id injectargs'--mon-osd-full-ratio .98'ceph tell osd.id injectargs'--mon-osd-full-ratio 0.98'# ...
Ceph OSD 磁盘更换 首先对osd停止自动重平衡数据 ceph osd set noout 等新硬盘弄上去之后, 在开启自动重平衡 ceph osd unset noout 1. 关闭(停止)并退出一个 osd(驱动器出现故障可能已经处于此状态) 2. 将其从树中删除并粉碎地图(GUI 中的“销毁”) 3. 更换磁盘 4. 创建新的 osd 5、利润 1. down (s...
#ceph osd set nodeep-scrub #ceph osd set noout #ceph health detail (查看存在noout、nodeep-scrub的flag) 4.2 对需要更换的硬盘进行拔除,并更换成新硬盘。联系机房同事,进行磁盘更换。 4.3 登录硬盘故障的存储节点,对更换的新硬盘进行重组RAID0操作;下图为RAID相关参数说明请参考。
ceph 运维操作-OSD,1.说明1.1介绍OSD全称ObjectStorageDevice,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。2.常用操作2.1查看osd状态$cephosdstat5osds:5up,5in状态说明:集群内(in)集群外(out)活着且在运行(up)挂了且不再运行(down)说
# Ceph 客户端读写数据时,总是连接 acting set 里的主 OSD (如 [2, 3, 4] 中, osd.2 是主的)。# 有时候某个 OSD 与其它的相比并不适合做主 OSD (比如其硬盘慢、或控制器慢),最大化硬件利用率时为防止性能瓶颈(特别是读操作),# 你可以调整 OSD 的主亲和性,这样 CRUSH 就尽量不把它用作 acting...
我理解这个命令是不把盘从集群中踢出去,数据应该不会自动平衡。
ceph osdsetnoout 设置了 noout 后,你就可以停机维护失败域内的 OSD 了。 stop ceph-osd id={num} 注意:在定位某故障域内的问题时,停机的 OSD 内的 PG 状态会变为 degraded 。 维护结束后,重启 OSD 。 start ceph-osd id={num} 最后,解除 noout 标志。
ceph osd set noout 设置了 noout 后,你就可以停机维护失败域内的 OSD 了。 stop ceph-osd id={num} 注意:在定位某故障域内的问题时,停机的 OSD 内的 PG 状态会变为degraded。 维护结束后,重启 OSD 。 start ceph-osd id={num} 最后,解除noout标志。