通过“ceph pg dump”命令,我们可以快速地了解整个集群的状态,方便进行故障排查和性能调优。 在使用“ceph pg dump”命令时,一般会得到如下信息: 1. PG的状态:每个PG都有一个状态,包括active、creating、down、inactive等。状态不正常的PG可能会导致数据不可用,需要及时排查和修复。 2. PG的OSD列表:每个PG对应着...
可见,它此刻的状态是active+undersized+degraded,当一个 PG 所在的 OSD 挂掉之后,这个 PG 就会进入undersized+degraded 状态,而后面的[0,2]的意义就是还有两个副本存活在 osd.0 和 osd.2 上, 并且这个时候客户端可以正常读写IO。
可见,它此刻的状态是active+undersized+degraded,当一个 PG 所在的 OSD 挂掉之后,这个 PG 就会进入undersized+degraded 状态,而后面的[0,2]的意义就是还有两个副本存活在 osd.0 和 osd.2 上, 并且这个时候客户端可以正常读写IO。
在OSD挂掉5min(default 300s)之后,这个OSD会被标记为out状态,可以理解为ceph认为这个OSD已经不属于集群了,然后就会把PG 0.44 map到别的OSD上去,这个map也是按照一定的规则的,重映射之后呢,就会在另外两个OSD上找到0.44这个PG,而这只是创建了这个目录而已,丢失的数据是要从仅存的OSD上回填到新的OSD上的,处于回填...
ceph pg dump osds Ceph是一种用于存储数据的开源软件,它可将大量数据分布式地存储在多个节点上,确保数据的高可靠性和可扩展性。Ceph的存储结构由多个PG(Placement Groups)组成,每个PG包含多个对象,这些对象存储在多个OSD(Object Storage Device)上。当一个OSD发生故障或需要维护时,Ceph会自动将其上的数据重新分布到...
ceph pg dump 或者 ceph pg ls 查看一个PG的map ceph pg map 0.3f osdmap e88 pg 0.3f (0.3f) -> up [0,2] acting [0,2] #其中的[0,2]代表存储在osd.0、osd.2节点,osd.0代表主副本的存储位置 查看PG状态 ceph pg stat 查询一个pg的详细信息 ...
面向容灾域的备份策略使得一般而言的PG需要执行跨节点的分布式写,因此数据在不同节点之间的同步、恢复时的数据修复也都是依赖PG完成。 1. PG介绍 这次主要来分享Ceph中的PG各种状态详解,PG是最复杂和难于理解的概念之一,PG的复杂如下: - 在架构层次上,PG位于RADOS层的中间。
正常的PG状态是 100%的active + clean, 这表示所有的PG是可访问的,所有副本都对全部PG都可用。 如果Ceph也报告PG的其他的警告或者错误状态。PG状态表: 3. 状态详解及故障模拟复现 3.1 Degraded 3.1.1 说明 降级:由上文可以得知,每个PG有三个副本,分别保存在不同的OSD中,在非故障情况下,这个PG是active+clean...
$ ceph pg stat 1416 pgs: 6 active+clean+remapped, 1288 active+clean, 3 stale+active+clean, 119 active+undersized+degraded; 74940 MB data, 250 GB used, 185 TB / 185 TB avail; 1292/48152 objects degraded (2.683%) $ ceph pg dump | grep remapped dumped all 13.cd 0 0 0 0 0 0 ...
1、 分布式存储 Ceph 中 PG 各种状态详解 1. PG介绍本文主要来分享Ceph中的PG各种状态详解,PG是最复杂和难于理解的概念之一,PG的复杂如下:- 在架构层次上,PG位于RADOS层的中间。a. 往上负责接收和处理来自客户端的请求。b. 往下负责将这些数据请求翻译为能够被本地对象存储所能理解的事务。- 是组成存储池的...