虽然 pg_num 的增加引起了归置组的分割,但是只有当用于归置的归置组(即 pgp_num )增加以后,数据才会被迁移到新归置组里。 pgp_num 的数值应等于 pg_num 。可用下列命令增加用于归置的归置组数量: ceph osd poolset{pool-name}pgp_num{pgp_num} 获取归置组数量 要获取一个存储池的归置组数量,执行命令: ceph...
Ceph存储池pg_num配置详解 PG_NUM ⽤此命令创建存储池时:ceph osd pool create {pool-name} pg_num 确定 pg_num 取值是强制性的,因为不能⾃动计算。下⾯是⼏个常⽤的值:少于 5 个 OSD 时可把 pg_num 设置为 128;OSD 数量在 5 到 10 个时,可把 pg_num 设置为 512;OSD 数量在 10 ...
ceph osd pool get mypool nodelete nopgchange:控制是否可更改存储池的 pg num 和 pgp num ceph osd pool get mypool nopgchange ceph osd pool set mypool pg_num 64 #修改指定 pool 的 pg 数量 nosizechange:控制是否可以更改存储池的大小 ceph osd pool get mypool nosizechange #默认允许修改存储池...
Viewing PG scaling recommendations¶ You can view each pool, its relative utilization, and any suggested changes to the PG count with this command: cephosdpoolautoscale-status Output will be something like: POOLSIZETARGETSIZERATERAWCAPACITYRATIOTARGETRATIOEFFECTIVERATIOBIASPG_NUMNEWPG_NUMAUTOSCALEBULK...
Placement Groups(放置组):Ceph使用PG来组织对象,这是因为对象可能成千上万,因此一个一个对象来组织的成本是非常高的。PG的值会影响Ceph集群的行为和数据的持久性。通过osd_pool_default_pg_num设置pool中的PG 数目,默认为32,推荐的配置是每个OSD大概100个PG。
ceph osd pool create cephfs_data 128 ceph osd pool create cephfs_metadata 128 1. 2. 说明:命令最后的128是指定pg_num的值,这个值是不能自动计算的,需要手动赋予。一般来说,少于5个osd时,g_num可以设置为128;osd在5到10个之间,pg_num可以设置为512;osd在10到50个之间,pg_num可以设置为4096;但是osd...
ceph创建pool时pg_num的配置 pg_num# 用此命令创建存储池时: 代码语言:javascript 复制 ceph osd pool create{pool-name}pg_num 确定pg_num取值是强制性的,因为不能自动计算。常用的较为通用的取值: 少于5个osd,pg_num设置为128 osd数量在 5 到 10 个时,pg_num设置为512...
调整pg数的大小,推荐的增长幅度为2的幂 设置命令如下: ceph osd pool setpg_num 可以使用ceph -w来查看集群pg分布状态,并等待集群恢复正常(会引起部分pg的分布变化,但不会引起pg内的对象的变动)。 调整pgp 在pg增长之后,通过下面的命令,设置pgp和pg数保持一致,并触发数据平衡。
(3)使用上述公式,根据OSD数量、复制size、pool的数量,计算出新的PG数量,假设是256. (4)变更rbd的pg_num和pgp_num为256: $ ceph osd pool set rbd pg_num 256 $ ceph osd pool set rbd pgp_num 256 (5)如果有其他pool,同步调整它们的pg_num和pgp_num,以使负载更加均衡...
修改Ceph pool PG数量的方法有两种:手动修改和自动修改。 手动修改PG数量需要通过命令行工具执行一系列的操作。首先需要登录到Ceph集群的管理节点上,使用`ceph osd pool setpg_num`命令来修改指定pool的PG数量。然后,需要等待集群自动重新平衡数据分布,这可能需要一段时间,取决于集群的规模和负载情况。最后,可以使用`...