Scrubbing:scrub 是 ceph 对数据的清洗状态, 用来保证数据完整性的机制, Ceph 的 OSD 定期启动 scrub 线程来扫描部分对象, 通过与其他副本比对来发现是否一致, 如果存在不一致, 抛出异常提示用户手动解决, scrub 以 PG 为单位, 对于每一个 pg, ceph 分析该 pg 下所有的 object, 产生一个类似于元数据信息摘要...
ceph osd lspools 我这里名为 test 的 pool 的 ID 为 4,所以 test 下面的 PG 的 ID 都是以 4 开头的。 查看pg和osd的映射关系: ceph pg dump | grep ^4. |awk'{print $1 "\t" $17 "\t" $10}' 查看pg状态: ceph pg dump pgs_brief 获取pg数量 ceph osd pool get{pool-name}pg_num 存...
ceph pg ls-by-pool mypool | awk '{print $1,$2,$15}' # 验证PG和PGP的组合 ceph osd pool ls 或者 rados lspool # 列出所有的pool 上传文件: rados put msg1 /var/log/syslog --pool=mypool # 文件上传mypool并且指定对象id为msg1 列出文件: rados ls --pool=mypool 文件信息: ceph osd ma...
scrub 是 ceph 对数据的清洗状态, 用来保证数据完整性的机制, Ceph 的 OSD 定期启动 scrub 线程来扫描部分对象, 通过与其他副本比对来发现是否一致, 如果存在不一致, 抛出异常提示用户手动解决, scrub 以 PG 为单位, 对于每一个 pg, ceph 分析该 pg 下所有的 object, 产生一个类似于元数据信息摘要的数据结构...
$ ceph pg ls-by-pool device_health_metrics PG OBJECTS DEGRADED ... STATE 1.0 0 0 ... active+undersized+remapped 并确认pg正在使用默认规则: $ ceph osd pool get device_health_metrics crush_rule crush_rule: replicated_rule 而不是修改默认的CRUSH规则,我选择创建一个新的复制规则...
ceph pg ls-by-pool poolname 选项 ceph pg ls-by-pool <poolstr> {active|clean| down|replay|splitting|scrubbing|scrubq| degraded|inconsistent|peering|repair| recovering|backfill_wait|incomplete| stale|remapped|deep_scrub|backfill| backfill_toofull|recovery_wait| undersized [active|clean|down|replay...
POOL、PG简介 1、POOLS: 存储池,它们是用于存储对象的逻辑分区。 Ceph 客户端从 Ceph 监视器检索集群映射,并将对象写入池中。池size或副本的数量、CRUSH 规则和归置组的数量决定了 Ceph 将如何放置数据。 在这里插入图片描述 池至少设置以下参数: 对象的所有权/访问权 归置组的数量 要使用的 CRUSH 规则CRUSH 是...
PG PG 全称 Placement Grouops,是一个逻辑的概念,一个 PG 包含多个 OSD。引入 PG 这一层其实是为了更好的分配数据和定位数据。 RADOS RADOS 全称 Reliable Autonomic Distributed Object Store,是 Ceph 集群的精华,用户实现数据分配、Failover 等集群操作。
Pools - After creating it appears that some of the PGs are stuck 'creating+peering'. This can be caused by a number of things. Most likely an OSD is not blocking the creation. Do something like: ceph pg ls-by-pool | grep creating ...
osd pool default pg num = 100 osd pool default pgp num = 100 To create a pool, execute: ceph osd pool create {pool-name} {pg-num} [{pgp-num}] [replicated] \ [crush-rule-name] [expected-num-objects] ceph osd pool create {pool-name} {pg-num} {pgp-num} erasure \ [erasure-...