问题现象: ceph告警问题:”too many PGs per OSD” 问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health_warn。 当前PG数量调整为了2048 。 当前5台存储节点,只有29个OSD,每
问题描述 一套ceph生产环境出现了告警,ceph -s查看集群状态后,告警如下: 本文旨在记录对“too many PGs per OSD”告警的处理 问题分析 从告警来看...
分析 问题原因是集群osd 数量较少,在我的测试过程中,由于搭建rgw网关、和OpenStack集成等,创建了大量的pool,每个pool要占用一些pg ,ceph集群默认每块磁盘都有默认值,好像每个osd 为300个pgs,不过这个默认值是可以调整的,但调整得过大或者过小都会对集群的性能产生一定影响。因为我们这个是测试环境,只要能消除掉报错...
ceph集群默认每块磁盘都有默认值,好像每个osd 为128个pgs,默认值可以调整,调整过大或者过小都会对集群性能优影响,此为测试环境以快速解决问题为目的,解决此报错的方法就是,调大集群的此选项的告警阀值;方法如下,在mon节点的ceph.conf 配置文件中添加:
看到问题以为很简单,马上查找源码在PGMap.cc中 理所当然看到mon_max_pg_per_osd 这个值啊,我修改了。已经改成了1000 是不是很奇怪,并不生效。通过c...
Ceph: too many PGs per OSD,一、故障现象:查看ceph的集群状态:toomanyPGsperOSD(698>max300)# ceph -s cluster e2ca994a-00c4-477f-9390-ea3f931c5062 health HEALTH
HEALTH_WARN 1 hosts fail cephadm check; 1 pools have many more objects per pg than average; Degraded data redundancy: 1665/56910 objects degraded (2.926%), 1 pg degraded, 1 pg undersized; too many PGs per OSD (259 > max 250)
Hello all, after the latest update, done today in the morning, i get a HEALTH_WARN in Ceph -> "too many PGs per OSD (256 > max 200)" Before the update...
2019-12-03 15:06 −众所周知,目前数据库在超过设置最大连接数时,会报too many connections,把新的连接拒之门外,而在MariaDB 10.0和Percona5.6版本中,有个参数extra_port可以额外登陆到数据库解决这个连接问题。 MySQL官方终于在8.0.14这个版本也推出了相关参数。 主要... ...
Ceph: too many PGs per OSD 一、故障现象: 查看ceph的集群状态:too many PGs per OSD (698 > max 300) 1 2 3 4 5 6 7 8 9 10 11 12 13 # ceph -s cluster e2ca994a-00c4-477f-9390-ea3f931c5062 health HEALTH_WARN too many PGs per OSD (698 > max 300)...