OSD启动过程中osdmap加载流程 OSD启动入口是ceph_osd.cc的main函数,他会调用osd->init()进行osd启动前的初始化工作。 int OSD::init() { ...//检查osd目录相关持久化数据,以及文件系统属性等...
如下图,osd故障检测有mon和osd配合完成,在mon端通过名为OSDMonitor的PaxosService实时监控osd汇报的数据。 在osd端,运行tick_timer_without_osd_lock定时器,周期性的向mon汇报自身状态; 此外,osd对Peer osd进行Heartbeat监控,如果发现Peer osd故障,则及时向mon反馈。 更详细的见:ceph_osd故障检测 - hlc-123 - 博...
【ceph】ceph osd启动及peering过程中osdmap相关加载和更新流程,OSD启动过程中osdmap加载流程OSD启动入口是ceph_osd.cc的main函数,他会调用osd->init()进行osd启动前的初始化工作。intOSD::init(){...intr=store->mount();//检查osd目录相关持久化数据,以及文件系统属
ceph osd pool get ceph-demo size #查看整个pool的副本数 若是3副本,则会找3个OSD将同一份数据写入,确保数据的高可用 这些参数是可以调整的,参考下图 另外注意: pg_num和pgp_num必须一致,如果pg_num调整为128,那么紧接着pgp_num也需要调整为128 创建完pool后需要对pool初始化 rbd pool init #这个是错误的,...
2)osd显示的是down,但是通过 [root@haha1 ~]# /etc/init.d/ceph status osd.11 === osd.11 === osd.11: running {"version":"0.94.2"} 3)重启osd.11尝试解决 [root@haha1 ~]# /etc/init.d/ceph restart osd.11 === osd.11 === ...
rook-ceph-osd-4-xxxx-d8pgb 2/2 Running 12 (10d ago) 21d rook-ceph-osd-5-xxxx-zmzbx 2/2 Running 8 (10d ago) 21d 主要容器及其启动命令: Init Containers: blkdevmapper: Command: /bin/bash -c set -xe PVC_SOURCE=/ocs-deviceset-0-data-1mbwf2 ...
void OSD::handle_op(OpRequestRef op) { …… enqueue_op(pg,op); } osd->op_tp线程从队列中拿出消息开始工作(op_tp线程是在OSD::init时创建,线程具体的工作在OSD::OpWQ::_process中)。 之后会调用到ReplicatePG::do_request,此函数根据不同的消息会选择不同的操作方案,关于操作主要有这三个: ...
上一篇部署的时候,因为没有把/var/lib/ceph/osd/ceph-x的所属权限改成ceph,所以ceph-osd -i 0 --mkfs --mkkey初始化osd的时候出错,即使/etc/init.d/ceph start osd.0看到osd.0的状态已经是running了,但是ceph osd tree 看到的osd都是down的状态。
sudo/etc/init.d/ceph start osd.{osd-num} 一旦你启动了 OSD ,其状态就变成了up且in。 观察数据迁移 把新OSD 加入 CRUSH 图后, Ceph 会重新均衡服务器,一些归置组会迁移到新 OSD 里,你可以用ceph命令观察此过程。 ceph -w 你会看到归置组状态从active+clean变为active, some degraded objects(有降级的...
node内cpu与内存访问速度快于访问其他node的内存,NUMA可能会在某些情况下影响ceph-osd。解决的方案,一种是通过BIOS关闭NUMA,另外一种就是通过cgroup将ceph-osd进程与某一个CPU Core以及同一NODE下的内存进行绑定。但是第二种看起来更麻烦,所以一般部署的时候可以在系统层面关闭NUMA。CentOS系统下,通过修改 /etc/grub....