(4)变更rbd的pg_num和pgp_num为256: $ ceph osd pool set rbd pg_num 256 $ ceph osd pool set rbd pgp_num 256 (5)如果有其他pool,同步调整它们的pg_num和pgp_num,以使负载更加均衡
ceph osd poolset{pool-name}pg_num{pg_num} 你增加归置组数量后、还必须增加用于归置的归置组( pgp_num )数量,这样才会开始重均衡。 pgp_num 数值才是 CRUSH 算法采用的用于归置的归置组数量。虽然 pg_num 的增加引起了归置组的分割,但是只有当用于归置的归置组(即 pgp_num )增加以后,数据才会被迁移到新...
pool 确定pg_num取值是强制性的,因为不能自动计算。常用的较为通用的取值: 少于5个osd,pg_num设置为128 osd数量在 5 到 10 个时,pg_num设置为512 osd数量在 10 到 50 个时,pg_num = 4096 osd数量大于50是,需要理解ceph的权衡算法,自己计算pg_num取值 自行计算pg_num取值时可使用ceph配套的pg_num取值...
This is normally resolved by settingpgp_numto matchpg_num, triggering the data migration, with: cephosdpoolset<pool>pgp_num<pg-num-value> MANY_OBJECTS_PER_PG¶ One or more pools has an average number of objects per PG that is significantly higher than the overall cluster average. The sp...
ceph osd pool set {pool-name} pg_num {pg_num} 你增加归置组数量后、还必须增加⽤于归置的归置组( pgp_num )数量,这样才会开始重均衡。 pgp_num 数值才是 CRUSH 算法采⽤的⽤于归置的归置组数量。虽然 pg_num 的增加引起了归置组的分割,但是只有当⽤于归置的归置组(即 pgp_num )增加以后...
调整pg数的大小,推荐的增长幅度为2的幂 设置命令如下: ceph osd pool setpg_num 可以使用ceph -w来查看集群pg分布状态,并等待集群恢复正常(会引起部分pg的分布变化,但不会引起pg内的对象的变动)。 调整pgp 在pg增长之后,通过下面的命令,设置pgp和pg数保持一致,并触发数据平衡。
5ceph osd erasure-code-profilesetmy-erasure-code-profile k=2m=1 在这里,128表示Pool中的PG数量,可以根据集群的实际规模和工作负载进行调整。 总结 Pool是Ceph中的逻辑存储单元,用于组织和管理数据。 PG是Ceph中的物理数据分布单位,用于将数据均匀分散到不同的OSD上。
ceph osd pool $pool_nameset$replication_size 1. 命令运行结束后,我们还必须修改pg_num和pgp_num参数,如下所示: 复制 ceph osd poolset$pool_name pg_num $pg_numberceph osd poolset$pool_name pgp_num $pg_number 1. 2. 注意:我们必须依次更改每个池中的PG数量,直到“n-number of pgs degraded”和...
ceph osd pool set {pool-name} pg_num {pg_num} 1. 增加放置组数后,还必须增加放置组数 (),然后群集才能重新平衡。这将是将考虑由 CRUSH 算法放置的放置组数。增加拆分放置组,但数据不会迁移到较新的放置组,直到放置组放置,即。 增加。应等于 。要增加放置组的数量,请执行以下操作:pgp_num``pgp_num``...
第1列为pg的id,第2列为该pg所存储的对象数目,第3列为该pg所在的osd 我们扩大PG再看看 ceph osd pool set testpool pg_num 12 再次用上面的命令查询分布情况: 1.1 37 [3,6,0] 1.9 38 [3,6,0] 1.0 41 [7,0,6] 1.8 42 [7,0,6]