1. 解释ceph osd df命令的作用 ceph osd df命令用于显示Ceph集群中OSD(对象存储守护进程)的磁盘使用情况。它提供了关于每个OSD的存储空间使用情况、可用空间、数据分布等详细信息,有助于管理员监控和评估Ceph集群的健康状态和性能。 2. 列举ceph osd df命令输出的主要指标 ceph osd df命令输出的主要指标包括: ID:...
OSD在Ceph集群中负责数据存储和复制,是Ceph中最重要的组件之一。 在Ceph集群中,可以通过运行ceph osd df命令来查看每个OSD的使用情况。该命令将显示每个OSD的容量信息,包括已用空间、剩余空间和总空间。这些信息对于监控和管理Ceph集群非常重要,可以帮助管理员了解每个OSD的负载情况,并在需要时对其进行调整或迁移。 通过...
ceph osd crush rule dump -f json-pretty get_crush_rule_dump ceph df --format=json [pools] ceph osd pool ls detail 查看各个存储池的详情 rbd list -p <pool_name> 查看pool下面所有的rbd rados df (ceph df) 查看存储池的使用率 建议在创建池时候就定义好合理的 pg-num 与 pgp-num 因为在改变...
排查ceph集群发现,有一个osd处于full,2个osdnearfull,ceph集群出现fullosd会禁止写入和删除操作(nearfull是即将到达full状态的一个提醒,在此状态时,应该及时安排集群扩容等处理。) 进入cep-tool使用ceph osd df 查看 有一个osd使用率超过90%,两个超过了85% 执行 ceph balancer on #启用自动平衡 ceph balancer sta...
ceph osd pool create {pool-name} {pg-num} {pgp-num} # 创建存储池 ceph df #查看存储池统计信息 ceph osd df #查看osd使用情况 rados lspools #查看有哪些pool rbd ls poolname #查看pool里有哪些image rbd snap create --snap mysnap ssdpool/image_name 备份 ...
ceph osd df #结果如下 ID CLASS WEIGHT REWEIGHT SIZE RAW USE DATA OMAP META AVAIL %USE VAR PGS STATUS 0 hdd 5.51259 1.00000 5.5 TiB 182 GiB 125 GiB 241 KiB 1024 MiB 5.3 TiB 3.23 0.56 148 up 1 hdd 5.51259 1.00000 5.5 TiB 173 GiB 116 GiB 230 KiB 1024 MiB 5.3 TiB 3.06 0.53 133 ...
查看ceph osd ID与磁盘对应关系 ceph升级到bluestore后,df命令不能直接显示osd id与磁盘/dev/sdN的对应关系了,如: # df Filesystem 1K-blocks Used Available Use% Mounted on ... tmpfs 24700568 24 24700544 1% /var/lib/ceph/osd/ceph-7 tmpfs
答案是:不会。事实上,如果一个client和它要访问的PG内部的各个OSD看到的cluster map状态一致,则访问操作就可以正确进行。而如果这个client或者PG中的某个OSD和其他几方的cluster map不一致,则根据Ceph的机制设计,这几方将首先同步cluster map至最新状态,并进行必要的数据re-balancing操作,然后即可继续正常访问。
例如,通过 ceph osd df | sort -k 8 查看到最低osd使用率40%,最高osd使用率为72%,误差32,这种情况很可能就是osd之间数据不均衡。 d.导出osd 的pg分布,查看到部分池的数据很少(几乎没有),但给予了1024pg,data数据量多的池在每个osd内分布的不均匀,例如在osd 1 中,总pg数为120,但data池的pg只占用60...
OSD 故障排除 5.1. 与 OSD 相关的大多数通用错误消息 与OSD 相关的大多数通用错误消息 5.1.1. 完整 OSD 5.1.2. nearfull OSD 5.1.3. 个或更多 OSD 发生故障 5.1.4. Flapping OSD 5.1.5. 请求速度较慢,请求被阻塞 5.2. 停止并启动重新平衡