ceph osd poolset{pool-name}pg_num{pg_num} 你增加归置组数量后、还必须增加用于归置的归置组( pgp_num )数量,这样才会开始重均衡。 pgp_num 数值才是 CRUSH 算法采用的用于归置的归置组数量。虽然 pg_num 的增加引起了归置组的分割,但是只有当用于归置的归置组(即 pgp_num )增加以后,数据才会被迁移到新...
ceph configsetmon mon_max_pg_per_osd 300 然后重新创建池: ceph osd pool create yinzhengjie-k8s 128 128 (2) 方法 2:优化现有池的 PG 数 减少部分高pg_num池的 PG 数量(例如default.rgw.buckets.data的pg_num=256过高): # 调整该池的 pg_num 到合理值(例如 64)ceph osd poolsetdefault.rgw.bucke...
ceph osd pool create{pool-name 确定pg_num取值是强制性的,因为不能自动计算。常用的较为通用的取值: 少于5个osd,pg_num设置为128 osd数量在 5 到 10 个时,pg_num设置为512 osd数量在 10 到 50 个时,pg_num = 4096 osd数量大于50是,需要理解ceph的权衡算法,自己计算pg_num取值 自行计算pg_num取值时...
ceph osd pool setpg_num 可以使用ceph -w来查看集群pg分布状态,并等待集群恢复正常(会引起部分pg的分布变化,但不会引起pg内的对象的变动)。 调整pgp 在pg增长之后,通过下面的命令,设置pgp和pg数保持一致,并触发数据平衡。 ceph osd pool setpgp_num
ceph osd pool $pool_nameset$replication_size 1. 命令运行结束后,我们还必须修改pg_num和pgp_num参数,如下所示: 复制 ceph osd poolset$pool_name pg_num $pg_numberceph osd poolset$pool_name pgp_num $pg_number 1. 2. 注意:我们必须依次更改每个池中的PG数量,直到“n-number of pgs degraded”和...
要检查池的pg_num值,请使用ceph osd pool autoscale-status并查看PG_NUM列。要指定创建池时设置pg_num,请使用ceph osd pool create <pool_name> <pg_num>。要设置池中允许的最小 pg 数,请使用ceph osd pool set <pool...
第1列为pg的id,第2列为该pg所存储的对象数目,第3列为该pg所在的osd 我们扩大PG再看看 ceph osd pool set testpool pg_num 12 再次用上面的命令查询分布情况: 1.1 37 [3,6,0] 1.9 38 [3,6,0] 1.0 41 [7,0,6] 1.8 42 [7,0,6]
5ceph osd erasure-code-profilesetmy-erasure-code-profile k=2m=1 在这里,128表示Pool中的PG数量,可以根据集群的实际规模和工作负载进行调整。 总结 Pool是Ceph中的逻辑存储单元,用于组织和管理数据。 PG是Ceph中的物理数据分布单位,用于将数据均匀分散到不同的OSD上。
ceph osd pool set {pool-name} pg_num {pg_num} 1. 增加放置组数后,还必须增加放置组数 (),然后群集才能重新平衡。这将是将考虑由 CRUSH 算法放置的放置组数。增加拆分放置组,但数据不会迁移到较新的放置组,直到放置组放置,即。 增加。应等于 。要增加放置组的数量,请执行以下操作:pgp_num``pgp_num``...
# ceph osd pool create rbd 512 512 // 12 OSDs, Set PG num & PGP num to 512 is appropriate# ceph osd pool set rbd size 2 // Set pool replicated = 2# ceph osd pool application enable rbd rbd --yes-i-really-mean-it# rbd create --thick-provision --size 65536 rbd/rbd...