osdmap e224 pool 'erasure-testpool' (9) object 'testfile1' -> pg 9.3a643fcb (9.b) -> up ([8,NONE,5,1], p8) acting ([8,NONE,5,1], p8) cephadmin@ceph-deploy:~/ceph-cluster$ cephadmin@ceph-deploy:~/ceph-cluster$ #验证pg状态 cephadmin@ceph-deploy:~/ceph-cluster$ ceph pg...
pool 1 'metadata' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 64 pgp_num 64 last_change 1 flags hashpspool stripe_width 0 pool 2 'rbd' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 64 pgp_num 64 last_change 1 flags hashps...
二、 每个 pool 中 pg 数量的计算方法 官方: Total PGs = (Total_number_of_OSD * 100) / max_replication_count 每个池中pg数量最好接近或等于2的次方 示例: 有100 个 osd,2 副本,5 个 pool Total PGs = 100 * 100 / 2 = 5000 每个pool 的PG = 5000 /5 = 1000,那么创建 pool 的时候就指定...
RADOS的对象只能分布在一个PG中,一个PG仅能属于一个POOL,PG里的对象会被映射到不同的OSD上 客户端在保存对象的时候,ceph会根据对象的名称进行hash,然后使用crush算法将其映射给PG 当对象和PG映射关系确定后,ceph会根据集群的副本数,PG以及crush规则来计算对象所有副本与OSD对应关系 当集群中添加或者删除OSD的时候,...
Pool 是存储对象的逻辑分区,它起到 namespace 的作用。 每个Pool 包含一定数量(可配置)的 PG。 Pool 可以做故障隔离域,根据不同的用户场景统一进行隔离。 #Pool中数据保存方式支持两种类型: ●多副本(replicated):类似 raid1,一个对象数据默认保存 3 个副本,放在不同的 OSD ...
官方给出的计算公式是这样的: Total PGs = (Total_number_of_OSD * 100) / max_replication_count 结果汇总后应该接近 2 的幂。 例: 有200个osd,3副本,10个pool (200 * 100) --- = 6667. Nearest power of 2: 8192 3 每个pool 的PG=8192/10=819,那么创建pool的时候就指定PG为819 ceph osd poo...
计算公式: (Target PGs per OSD)✖(OSD#)✖(%DATA)/Size 如果如果ceph集群很长一段时间都不会拓展,我们osd daemon的总数为9,该存储池占用整个ceph集群整体存储空间的百分比为1%(10G/1000G), pool池中的副本数为3个,那么我们在pool池中设置pg的数量为多少合理?
Ceph PGs (Placement Groups) per Pool 计算器可以帮助您: 1. 计算 Ceph 中每个池的 PG 数量和总 PG 数量。 2.生成创建池的命令。 可选功能 您可以: 1. 支持 Erasure Coding 池,它用于维护一个对象的多个副本。 2.为所有池设置值。 3.设置缓存层,加快基于高性能硬件的读写操作速度。 警告: 缓存层当前...
在实际操作中,可以通过ceph osd pool set命令来设置每个pool中的PG数量。通过设置正确的PG数量,可以提高Ceph系统的性能和可靠性,减少数据访问的延迟和故障的风险。 总的来说,PG数量的计算对于Ceph系统的性能、可靠性和扩展性都具有重要的意义。通过合理计算PG数量,可以使Ceph系统更加稳定高效地运行,满足用户的不同需求...