ceph osd crush add osd.6 0.01939 root=default host=node1 将新增osd添加至crush中 ceph-osd -i 6 启动 1、创建OSD-ID 主节点node1执行 这里的 create 后可以跟ID号,不过还是让集群自己给出ID号最好,避免跳过一些ID node1:/etc # ceph osd create 7 node1:/etc # ceph osd stat 8 osds: 7 up,...
正常情况下OSD的状态是up in状态,如果down掉OSD,它的状态会变为down in,等待数据均衡完成后osd变为down out状态,Ceph 会把其归置组迁移到其他OSD, CRUSH 就不会再分配归置组给它。 3. 查看OSD的状态 # 查看集群的osd状态 # 查看指定osd的状态:ceph osd dump 3 [root@node1 ~]# ceph osd dump epoch 24...
# ceph osd unset nobackfill # ceph osd unset norecover # ceph osd unset norebalance # ceph osd unset noscrub # ceph osd unset nodeep-scrub Copy 将任何现有的 CRUSH bucket 切换到最新的 bucket 类型straw2。 # ceph osd getcrushmap -o backup-c...
因此另一种折衷方法就是单独调整已满 OSD 的 near full 和 full 比例;也可以使用调低 OSD 的 crush weight 的方法,使已满 OSD 上的数据迁移一部分出去。 复制 # 调整单个 osd 的比例ceph tell osd.id injectargs'--mon-osd-full-ratio .98'ceph tell osd.id injectargs'--mon-osd-full-ratio 0.98'# ...
cephadmin@ceph-deploy:~/ceph-cluster$ ceph osd map mypool msg1 osdmap e115 pool'mypool'(2) object'msg1'-> pg 2.c833d430 (2.10) -> up ([15,13,0], p15) acting ([15,13,0], p15) 表示文件放在了存储池 id 为2的 c833d430 的 PG 上,10 为当前 PG 的 id, 2.10 表示数...
Ceph 消除了集中网关,允许客户端直接和 Ceph OSD 守护进程通讯。 Ceph OSD 守护进程自动在其它 Ceph 节点上创建对象副本来确保数据安全和高可用性; 为保证高可用性,监视器也实现了集群化。 为消除中心节点, Ceph 使用了 CRUSH 算法。 CRUSH算法 Ceph 客户端和 OSD 守护进程都用 CRUSH 算法来计算对象的位置信息,而...
1.2 执行以下命令移除故障OSD,其中{$X}为osd id。(命令执行时确认成功后再执行下一条) ceph osd out {$X} systemctl stop ceph-osd@{$X} #把 OSD 踢出集群后,它可能仍在运行,就是说其状态为 up 且 out 。删除前要先停止 OSD 进程 ceph osd crush rm osd.{$X} ...
警告:删除 OSD 时不要让集群达到full ratio值,删除 OSD 可能导致集群达到或超过full ratio值。 1、停止需要剔除的 OSD 进程,让其他的 OSD 知道这个 OSD 不提供服务了。停止 OSD 后,状态变为down。 代码语言:javascript 复制 ssh{osd-host}sudo stop ceph-osd id={osd-num} ...
1. 首先,使用ceph命令行工具查看当前的OSD列表,找到需要指定为主OSD的OSD的ID。 2. 然后,使用ceph命令行工具执行指定主OSD的命令,命令格式如下:ceph osd designate osd.{OSD-ID} as primary。 3. 最后,使用ceph命令行工具再次查看OSD列表,确认指定主OSD的操作是否成功。
ceph osdset(unset) noout | nodown | noin | noup AI代码助手复制代码 给定的CRUSH名称(如主机或机架名称)下输出OSD id列表: ceph osd ls-tree<crush_name> AI代码助手复制代码 输出集群日志的最后n行 cephloglast[n] AI代码助手复制代码 集群范围的比例设置为各种全阈值: ...