ceph configsetmon mon_max_pg_per_osd 300 然后重新创建池: ceph osd pool create yinzhengjie-k8s 128 128 (2) 方法 2:优化现有池的 PG 数 减少部分高pg_num池的 PG 数量(例如default.rgw.buckets.data的pg_num=256过高): # 调整该池的 pg_num 到合理值(例如 64)ceph osd poolsetdefault.rgw.bucke...
在这里,128表示Pool中的PG数量,可以根据集群的实际规模和工作负载进行调整。 总结 Pool是Ceph中的逻辑存储单元,用于组织和管理数据。 PG是Ceph中的物理数据分布单位,用于将数据均匀分散到不同的OSD上。 通过合理配置Pool和PG的数量,可以实现数据的均匀分布、负载均衡和性能优化。 Pool可以是复制型或纠删码型,根据不...
可以看到pg内的对象数并没有发生改变,而pg所在的osd的对应关系发生了改变,可以看到最初pg=6 pgp=6的时候前6个pg的分布并没有发生变化,变化的都是后面增加的pg,也就是将重复的pg分布进行新分布,这里并不是随机打散,而是尽量做小改动的重新分布,这就是所谓的一致性哈希原理。 结论:调整PGP不会引起PG内的对象的...
1. 根据存储容量来设置PG数量。一般情况下,我们可以按照每TB存储容量设置30-100个PG,这样可以保证数据分布均衡,并且可以提高系统的读写性能。 2. 考虑IO负载来设置PG数量。如果Ceph集群的IO负载比较大,可以适当增加PG的数量,这样可以提高系统的负载能力,减少IO阻塞的情况。 3. 注意监控系统性能指标。在调整PG数量的...
ceph pg数量调整 计算合适的pg数 网址如下:https://ceph.com/pgcalc/ 调整PGP不会引起PG内的对象的分裂,但是会引起PG的分布的变动。 PG是指定存储池存储对象的目录有多少个,PGP是存储池PG的OSD分布组合个数PG的增加会引起PG内的数据进行分裂,分裂到相同的OSD上新生成的PG当中PGP的增加会引起部分PG的分布进行变...
PG是Ceph用来管理数据和分配存储空间的基本单位。每个PG包含一组对象,它们被分布在Ceph存储集群的不同OSD节点上。PG的数量决定了数据在Ceph集群中的分布和负载平衡。过少的PG数量会导致数据不均匀地分布在各个OSD节点上,造成性能瓶颈。而过多的PG数量则会增加Ceph集群的管理复杂度,影响性能。
总PG数量=(100×200)/3=6666.67 1. 取最接近的2的幂次方值,最终总PG数量为8192。 根据数据比例分配: Glance:8192 × 0.15 = 1228.8 → 1024 Nova:8192 × 0.50 = 4096 → 4096 CephFS:8192 × 0.20 = 1638.4 → 2048 RBD:8192 × 0.15 = 1228.8 → 1024 ...
unclean(不干净)—— PG 长时间不是clean(例如它未能从前面的失败完全恢复); stale(不新鲜)—— PG 状态没有被ceph-osd更新,表明存储这个 PG 的所有节点可能都down了。 你可以用下列命令显式地列出卡住的 PGs: 代码语言:javascript 代码运行次数:0
只需60 个 OSD,随机读取性能就可在使用 3X 的 RBD 池上扩展到 16384 个 PG。写入的峰值要早得 多,但仍可从高达 2048 个 PG 中获得较大的好处。 有一点很明确:我们不应该盲目地将生产的Ceph集群配置为使用像我们在这里测试的那样高的PG数量。当考虑到Ceph中对PG日志长度和PG统计更新等⼀些其他默认设置时候...