Ceph OSD PG 上限是指在每个 OSD 上可以同时服务的 PG 数量的上限。默认情况下,每个 OSD 上的 PG 数量上限为 200。当 OSD 数量较多时,PG 数量的上限也会成比例增加。然而,并非总是更高的 PG 上限就意味着更好的性能。当 PG 数量超过一定阈值时,系统性能可能会受到影响。 2. 确定适当的 PG 上限 为了确定...
可能是[osd1,osd2],那么所有的pg主从副本都会存放到osd1和osd2上;如果pgp=2,那么其osd组合可能就两种,可能是[osd1,osd2]和[osd1,osd3],pg的主从副本会落在[osd1,osd2]或者[osd1,osd3]中,和我们数学中的排列组合很像,所以pg是存放对象的归属组是一种虚拟概念,pgp就是pg对应的osd排列...
一般来说,少于5个osd时,g_num可以设置为128;osd在5到10个之间,pg_num可以设置为512;osd在10到50个之间,pg_num可以设置为4096;但是osd一旦超过50个,那么就得自己计算pg_num的取值,也可以借助工具pgcalc计算,网址是https://ceph.com/pgcalc/。随着osd数量的增加,正确的pg_num取值变得更加重要,因为它显著地影...
每个池中pg数量最好接近或等于2的次方 示例: 有100 个 osd,2 副本,5 个 pool Total PGs = 100 * 100 / 2 = 5000 每个pool 的PG = 5000 /5 = 1000,那么创建 pool 的时候就指定 pg 为 1024 ceph osd pool create pool_name 1024 三、ceph pg命令 ...
PGP是为了实现定位而设置的PG,它的值应该和PG的总数(即pg_num)保持一致。对于Ceph的一个pool而言,如果增加pg_num,还应该调整pgp_num为同样的值,这样集群才可以开始再平衡。 参数pg_num定义了PG的数量,PG映射至OSD。当任意pool的PG数增加时,PG依然保持和源OSD的映射。直至目前,Ceph还未开始再平衡。此时,增加pgp...
ceph pg数量调整 计算合适的pg数 网址如下:https://ceph.com/pgcalc/ 调整PGP不会引起PG内的对象的分裂,但是会引起PG的分布的变动。 PG是指定存储池存储对象的目录有多少个,PGP是存储池PG的OSD分布组合个数PG的增加会引起PG内的数据进行分裂,分裂到相同的OSD上新生成的PG当中PGP的增加会引起部分PG的分布进行变...
PG是Ceph中数据分布和容错的基本单位。每个PG包含一定数量的对象,并将这些对象复制到不同的OSD上进行冗余存储。PG的数量和分布对于Ceph集群的性能和可靠性至关重要。为了保证系统的性能和容错能力,需要根据集群的规模和配置合理地计算PG的数量。 Ceph PG的数量由以下公式计算得出: PG数量 = (存储池中的对象数 × ...
为了显示 Ceph 集群中每个 OSD 中包含的 PGs 数量,可以用如下方法:$ ceph --format xml pg dump \ xmlstarlet sel -t -m "//pg_stats/pg_stat/acting" -v osd -n \ sort -n uniq -c 332 0 312 1 299 2 326 3 291 4 295 5 316 6 311 7...
...numactl --physcpubind=0-12,64-76 /usr/local/bin/ceph-osd每个 NVMe 驱动器使用 2 到 20 个 CPU 线程进行测试。 FIO 配置为首先使用大量写入预填充 RBD 卷,然后分别进行 60 秒的 4MB 和 4KB IO 测试。某些后台进程(例如清理、深度清理、PG 自动缩放和 PG 平衡)被禁用。使用具有静态 16384 PG(...