queued_for_pg The op has been put into the queueforprocessing by its PG. reached_pg The PG has started doing the op. 噢,这个过程就是op在等待被执行。原来op本身很慢,是在队列等待 那么问题来了,队列为啥会等待呢 osd磁盘队列等待一般思路是3个,一个是磁盘有坏道,这导致某些op处理非常慢,引发后续o...
queued_for_pg: The op has been put into the queue for processing by its PG. reached_pg: The PG has started performing the op. waitingfor\*: The op is waiting for some other work to complete before it can proceed (for example, a new OSDMap; the scrubbing of its object target; the...
PGRef&pg;ThreadPool::TPHandle&handle;RunVis(OSD *osd, PGRef &pg, ThreadPool::TPHandle &handle) : osd(osd), pg(pg), handle(handle) {} void operator()(OpRequestRef &op); void operator()(PGSnapTrim &op); void operator()(PGScrub &op); }; public: // cppcheck-suppress noExplicit...
在pg内对象不变的情况下,对pg做scrub的顺序是不变的,我专门挑了我这个scrub顺序下最后一个scrub的对象来做get,还是出现了slow request ,这个可以证明上面的推断,也就是在做scrub的时候,对scub的chunk的对象的读取请求也会卡死,现在我把我的scrub的chunk弄成1看下会发生什么...
从上面可以看到,提示说每个osd上的pg数量小于最小的数目30个。pgs为10,因为是2副本的配置,所以当有3个osd的时候,每个osd上均分了10/3 *2=6个pgs,也就是出现了如上的错误 小于最小配置30个。 集群这种状态如果进行数据的存储和操作,会发现集群卡死,无法响应io,同时会导致大面积的osd down。
一个PG里包含一堆对象;一个对象只能属于一个PG; PG有主从之分,一个PG会有主副本和从副本,主从PG分布在不同的osd上。 1.安装单节点的Ceph 在节点上创建及配置bind DNS解析 # yum install -y bind bind-utils /etc/named.conf [root@ceph-node ~]# cat /etc/named.conf///named.conf///Provided by ...
16> 2014-12-18 12:23:05.181149 7f5d6728d700 5 - op tracker -- seq: 839, time: 2014-12-18 12:23:05.181149, event: reached_pg, op: MOSDECSubOpRead(2.24s4 408 ECSubRead(tid=43, to_read={e2ffe9a4/10000000447.00000229/head//2=0,839072}, attrs_to_read=)) 15> 2014-12-18 12...
[set-alloc-hint object_size 4194304 write_size 4194304,write 3670016~524288] 7.eced69f0 RETRY=6 ack+ondisk+retry+write+known_if_redirected e1916) currently reached_pg Possible causes include: 磁盘有坏道(check dmesg output) 文件系统出错 (check dmesg output) Ceph集群负载过重 (...
原因: osd很坑的一点是,读以及omap-get是在osd-tp线程,所以如果读慢了,会造成请求积压,这点从上面osd的history dump耗时可以进一步证明,上面osd的queued_for_pg到reached_pg这个阶段耗时比较多。 优化 观察该朋友线上环境,元数据池子每个副本域只有一个osd。其实这种部署方式是比较通用的,因为文件系统元数据池子里面...
ceph pg set_full_ratio 0.96 (Luminous版本之前) ceph osd set-full-ratio 0.96 (Luminous版本) 4. 解除 osd 禁止读写 ceph osd unpause 5. 删除相关数据 最好是 nova 或者 glance 删除 也可以在 ceph 层面删除 6. 配置还原 ceph tell mon.* injectargs "--mon-osd-full-ratio 0.95" ...