Ceph pg_num计算 1. 用ceph官网提供的pg计算器计算 可直接使用Ceph官网pg计算器计算pg_num,填入相关参数即可得出推荐的pg_num,如下图: 2. 用公式计算 pg_num计算值为: 注意: 最终pg_num的计算结果取接近计算值的2次幂,以提高CRUSH算法效率。例如:计算值为200时,取256作为结果。pgp_num的值应设置为与pg_nu...
Pg id由简单hash算法求出,计算公式如下:Id = Int(Hash(object_name)%PG_num)。其中pg_num是用来...
通常来说,我们可以通过以下公式来计算: PG数目 = (OSD数目 * 100) / pg_num 其中,pg_num为Pool的pg_num参数,OSD数目则为Ceph集群中的OSD的数量。根据这个公式,我们可以大致估算出需要设置的PG的数量,以达到满足性能和负载平衡的目的。 需要说明的是,Ceph中的PG数量并非固定不变的,可以通过修改Pool的pg_num参...
pg_num = number of placement groups mapped to an OSD When pg_num is increased for any pool, every PG of this pool splits into half, but they all remain mapped to their parent OSD. Until this time, Ceph does not start rebalancing. Now, when you increase the pgp_num value for the s...
Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常被设置为 100 Frequently OSDs get killed by the OOM killer. Looking at "ceph daemon osd.$OSD_ID dump_mempools", it sh...
pg的计算公式: 1、输出的值取舍到最接近的2的幂(最接近的2的幂提供了CRUSH算法效率的少量提高) 2、如果最接近的2的幂比原始值低25%以上,则使用下一个更高的2的幂 3、每个osd pg数目,建议值: 100 如果在可预见的将来,群集OSD的数量预计不会增加。
一个Ceph集群中,PG的数量不能随便的设定。而应该合理的设定。通常如果一个集群有个超过50个OSD,建议每个OSD大约有50到100到PG。如果有更大规模的集群,建议每个OSD大约100到200个PG。 总PG的数量基本计算公式为: (总OSD数*每个OSD计划PG数)/副本数 => 总PG数 ...
自己计算 pg_num 取值时可借助pgcalc工具 pool的容量规划也要考虑,例如对象存储default.rgw.buckets.data要分配多一点的PGs。 所以更准确的计算公式是: ( Target PGs per OSD ) x ( OSD # ) x ( %Data ) --- ( Size ) RADOS Gateway pgcalc工具计算值 RADOS Gateway...
7、PG Number PG和PGP数量一定要根据OSD的数量进行调整,计算公式如下,但是最后算出的结果一定要接近或者等于一个2的指数。 Total PGs = (Total_number_of_OSD * 100) / max_replication_count 例:有100个osd,2副本,5个pool Total PGs =100*100/2=5000 每个pool 的PG=5000/5=1000,那么创建pool的时候就...
按照计算公式:Total PGs = (Total_number_of_OSD *100) / max_replication_count / pool_count 结算的结果往上取靠近2的N次方的值,以本文为例,PG=(6*100)/3/6=33.33333,向上取2的N次方的值为64 [root@ceph1 ~]# ceph osd pool ls device_health_metrics ...