ceph osd poolset{pool-name}pg_num{pg_num} 你增加归置组数量后、还必须增加用于归置的归置组( pgp_num )数量,这样才会开始重均衡。 pgp_num 数值才是 CRUSH 算法采用的用于归置的归置组数量。虽然 pg_num 的增加引起了归置组的分割,但是只有当用于归置的归置组(即 pgp_num )增加以后,数据才会被迁移到新...
PGP是为了管理placement而存在的专门的PG,它和PG的数量应该保持一致。如果你增加pool的pg_num,就需要同时增加pgp_num,保持它们大小一致,这样集群才能正常rebalancing。下面介绍如何修改pg_num和pgp_num。 (1)检查rbd这个pool里已存在的PG和PGP数量: $ ceph osd pool get rbd pg_num pg_num: 128 $ ceph osd po...
ceph config set osd osd_min_pg_log_entries 500 ceph config set osd osd_max_pg_log_entries 500 这个问题主要是因为两个因素,一个是pg 较多, 另一个是pg log条目较多。 按照公式计算最合适的pgp,然后缩小pglog 参考恢复方式:https://lists.ceph.io/hyperkitty/list/ceph-users@ceph.io/thread/LJPJZPB...
ceph osd pool set {pool-name} pg_num {pg_num} 你增加归置组数量后、还必须增加⽤于归置的归置组( pgp_num )数量,这样才会开始重均衡。 pgp_num 数值才是 CRUSH 算法采⽤的⽤于归置的归置组数量。虽然 pg_num 的增加引起了归置组的分割,但是只有当⽤于归置的归置组(即 pgp_num )增加以后...
ceph osd pool setpg_num 可以使用ceph -w来查看集群pg分布状态,并等待集群恢复正常(会引起部分pg的分布变化,但不会引起pg内的对象的变动)。 调整pgp 在pg增长之后,通过下面的命令,设置pgp和pg数保持一致,并触发数据平衡。 ceph osd pool setpgp_num
ceph osd pool set {pool-name} pg_num {pg_num} 1. 增加放置组数后,还必须增加放置组数 (),然后群集才能重新平衡。这将是将考虑由 CRUSH 算法放置的放置组数。增加拆分放置组,但数据不会迁移到较新的放置组,直到放置组放置,即。 增加。应等于 。要增加放置组的数量,请执行以下操作:pgp_num``pgp_num``...
nopgchange:控制是否可更改存储池的 pg num 和 pgp num ceph osd pool get mypool nopgchange ceph osd pool set mypool pg_num 64 #修改指定 pool 的 pg 数量 nosizechange:控制是否可以更改存储池的大小 ceph osd pool get mypool nosizechange #默认允许修改存储池大小 ...
~]$ ceph osd pool create <pool name> <pg num> <pgp num> [type] pool name:存储池名称,必须唯一。 pg num:存储池中的pg数量。 pgp num:用于归置的pg数量,默认与pg数量相等。 type:指定存储池的类型,有replicated和erasure, 默认为replicated。 创建一个副本池如下。
ceph osd pool set volumes pg_num512ceph osd pool set volumes pgp_num512 1. 2. 4. CRUSH Map CRUSH是一个非常灵活的方式,CRUSH MAP的调整取决于部署的具体环境,这个可能需要根据具体情况进行分析,这里面就不再赘述了。 5. 其他因素的影响 在今年的(2015年)的Ceph Day上,海云捷迅在调优过程中分享过一个...
根据前面的公式,得到每个地的 PG 数是 150 ,然后舍入到2的N 次幕 256。 修改池的 PG和PGP: [root@node140 ~]# ceph osd pool set rbd pg_num 256 set pool 3 pg_num to 256 [root@node140 ~]# ceph osd pool set rbd pgp_num 256 ...