虽然 pg_num 的增加引起了归置组的分割,但是只有当用于归置的归置组(即 pgp_num )增加以后,数据才会被迁移到新归置组里。 pgp_num 的数值应等于 pg_num 。可用下列命令增加用于归置的归置组数量: ceph osd poolset{pool-name}pgp_num{pgp_num} 获取归置组数量 要获取一个存储池的归置组数量,执行命令: ceph...
ceph osd pool set mypool pg_num 64 #修改指定 pool 的 pg 数量 nosizechange:控制是否可以更改存储池的大小 ceph osd pool get mypool nosizechange #默认允许修改存储池大小 ceph osd pool get-quota mypool quotas for pool 'mypool': max objects: 1 k objects max bytes : 10 GiB ceph osd pool...
ceph osd pool set {pool-name} pg_num {pg_num} 你增加归置组数量后、还必须增加⽤于归置的归置组( pgp_num )数量,这样才会开始重均衡。 pgp_num 数值才是 CRUSH 算法采⽤的⽤于归置的归置组数量。虽然 pg_num 的增加引起了归置组的分割,但是只有当⽤于归置的归置组(即 pgp_num )增加以后...
on: Enable automated adjustments of the PG count for the given pool. warn: Raise health alerts when the PG count should be adjusted To set the autoscaling mode for an existing pool: cephosdpoolset<pool-name>pg_autoscale_mode<mode>
ceph osd pool create cephfs_data 128 ceph osd pool create cephfs_metadata 128 1. 2. 说明:命令最后的128是指定pg_num的值,这个值是不能自动计算的,需要手动赋予。一般来说,少于5个osd时,g_num可以设置为128;osd在5到10个之间,pg_num可以设置为512;osd在10到50个之间,pg_num可以设置为4096;但是osd...
CRUSH Rules(CRUSH 规则):数据映射的策略,由参数osd_pool_default_crush_rule指定,用户可以自定义策略来灵活地设置object存放的区域。 Snapshots(快照):你可以对pool做快照 Set Ownership:设置pool的owner的用户ID 1.3 PG(Placement GROUP) 1.3.1 PG的概念 ...
ceph osd pool create{pool-name}pg_num 确定pg_num取值是强制性的,因为不能自动计算。常用的较为通用的取值: 少于5个osd,pg_num设置为128 osd数量在 5 到 10 个时,pg_num设置为512 osd数量在 10 到 50 个时,pg_num = 4096 osd数量大于50是,需要理解ceph的权衡算法,自己计算pg_num取值 ...
调整pg数的大小,推荐的增长幅度为2的幂 设置命令如下: ceph osd pool setpg_num 可以使用ceph -w来查看集群pg分布状态,并等待集群恢复正常(会引起部分pg的分布变化,但不会引起pg内的对象的变动)。 调整pgp 在pg增长之后,通过下面的命令,设置pgp和pg数保持一致,并触发数据平衡。
ceph osdsetnorebalance 1. 现在,您必须将新的OSD添加到CRUSH MAP中,并将旧OSD的权重设置为0。对于要删除和添加的OSD,将主要亲和力设置为0: 复制 ceph osdprimary-affinity osd.$OLD 0ceph osdprimary-affinity osd.$NEW 0 1. 2. 然后减小backfill到1并取消norebalance: ...
ceph osd poolset{pool-name} {key} {value} 1. 比如设置pool的冗余副本数量为3: 复制 ceph osd poolsettest-poolsize3 1. 其他配置项参考文档。 通过get操作能够获取pool的配置值,比如获取当前pg_num: 复制 ceph osd pool get test-pool pg_num ...