1. OSD概念 OSD:Object Storage Device,主要负责响应客户端请求返回具体数据的守护进程,一般一个集群会有多个OSD,每一块盘都会对应一个OSD。 2. OSD 状态 代码语言:javascript 代码运行次数:0 运行 AI代码解释 [root@data1 ~]# ceph osd stat 4 osds: 3 up (since 23m), 3 in (since 13m); epoch: ...
a42141 KernelDevice::flush+0xffff54242517e531 (/usr/bin/ceph-osd) a16b95 BlueFS::flush_bdev+0xffff54242517e195 (/usr/bin/ceph-osd) a193a4 BlueFS::_flush_bdev_safely+0xffff54242517e0f4 (/usr/bin/ceph-osd) a2d94e BlueFS::_fsync+0xffff54242517e19e (/usr/bin/ceph-osd) a407f2 BlueRocks...
ssh $i "yum -y install ceph-mon ceph-osd ceph-mds ceph-radosgw" done 2)创建Ceph集群配置 在ceph-cluster目录下生成Ceph配置文件(ceph.conf) 在ceph.conf配置文件中定义monitor主机是谁。 不能重复回车, 因 ceph.conf的的集群id 将不一样 其他node主机没有配置文件 [root@node1 ceph-cluster]# ceph-...
ceph-osdis part of Ceph, a massively scalable, open-source, distributed storage system. Please refer to the Ceph documentation athttps://docs.ceph.comfor more information. See also ceph(8),ceph-mds(8),ceph-mon(8),ceph-authtool(8)...
所以没有办法通过这种方式直接查看到某个osd对应的磁盘。 可通过如下操作查看每块磁盘对应的lvm: root@ctnr:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sdf8:8001.8T0disk └─ceph--295361e9--45ed--4f85--be6a--a3eb06ba8341-osd--block--e2e485b7--65c0--49ad--a37c--24eaefbc3343253...
在读取方面,Ceph 为每 Core 提供大约 7500 IOPS,并且根据分配给 OSD 的 Core 数量,每个 Core 分配的 IOPS 从 2400 到 8500 不等。在写入端,Ceph 为每个使用的 Core 提供大约 3500 IOPS,每个分配的 Core 提供 1600 到 3900 IOPS 。这些结果比我们 2 年前结果要好一些,我们在最近的 Quincy 版本中进行了进...
在 Ceph 里,一个 OSD 通常是一台主机上的一个 ceph-osd 守护进程、它运行在一个硬盘之上。如果一台主机上有多个数据盘,你得逐个删除其对应 ceph-osd 。通常,操作前应该检查集群容量,看是否快达到上限了,确保删除 OSD 后不会使集群达到 near full 比率。 警告: 删除OSD 时不要让集群达到 full ratio 值,...
stop ceph-osd id={num} 1. 注意:在定位某故障域内的问题时,停机的 OSD 内的 PG 状态会变为 degraded 。 维护结束后,重启 OSD 。 复制 start ceph-osd id={num} 1. 解除noout 标志。 复制 ceph osd unset noout 1. 1.3 OSD 没运行 通常情况下,简单地重启 ceph-osd 进程就可以让它重回集群并恢复...
ceph的OSD可以精确控制、CPU、内存、网络带宽等资源 实例化对象,定义了一套完备的对象接口,客户端可以直接操作对象,基于对象开发存储型应用 可自主进行数据复制、数据恢复、数据迁移,快速进行故障切换和恢复 OSD与客户端、OSD之间以点对点的方式传播集群表,避免广播方式在OSD数量较大时形成广播风暴 ...
ceph osdunsetnoscrub ceph osdunsetnodeep-scrub 故障盘定位: ###定位故障盘ceph osd tree|grep-i down 单个osd启动: ##使用ceph osd tree 查看osd挂载所对应的节点:### systemctl restart ceph-osd@{osd_id}systemctl restart ceph-osd@1 在线设置osd的up 或 down 状态 ...