[root@ceph ~] sudo ceph osd stat #输出内容大致如下: osdmap e3921: 5 osds: 5 up, 5 in; 命令的结果显示,当前osdmap的版本号为e3921,集群内共有5个OSD,其中处于“up”状态的OSD为5个,处于“in”状态的OSD也为5个。这说明集群中OSD的状态处于正常情况。 如果要启动一个OSD守护进程,请参考前文"集...
在客户端向主OSD写入object的过程,object的副本是由主OSD负责向副本OSD写入的,直到副本OSD在创建object副本完成,并向主OSD发出完成信息前,该PG的状态都会一直处于degraded状态。 又或者是某个OSD的状态变成了down,那么该OSD上的所有PG都会被标记为degraded。 当Ceph因为某些原因无法找到某个PG内的一个或多个object时,...
[root@UAT-CEPH-MASTER01 ~]# ceph osd up osd.8no valid command found;10closest matches: osd perf osd df [plain|tree] [class|name] [<filter>] osd blocked-by osd pool stats [<pool_name>] osd pool scrub<who>... osd pool deep-scrub <who>... osd pool repair<who>... osd pool ...
To see which OSDs are within the Acting Set and the Up Set for a specific PG, run the following command: cephpgmap{pg-num} The output provides the following information: the osdmap epoch (eNNN), the PG number ({pg-num}), the OSDs in the Up Set (up[]), and the OSDs in the ...
情况如上, 现在要在storage03-ib.lobj.eth6.org节点上新增一块盘, 即, 新增一个OSD. 首先盘已经插到了机器上, 运行 fdisk -l 查看新增硬盘: [root@storage03-ib ceph-9]#fdisk -lDisk /dev/sdb: 128.0 GB, 128035676160 bytes, 250069680 sectors ...
"get_command_descriptions":"list available commands", "get_heap_property":"get malloc extension heap property", "get_latest_osdmap":"force osd to update the latest map from the mon", "get_mapped_pools":"dump pools whose PG(s) are mapped to this OSD.", ...
Mon OSD pg 命令操作 int librados::RadosClient::mon_command(const vector<string>& cmd, const bufferlist &inbl, bufferlist *outbl, string *outs) { // mc start_mon_command 发送到monitor monclient.start_mon_command(cmd, inbl, outbl, outs, ...
command: Running command: /usr/bin/ceph-conf --cluster=ceph --name=osd. --lookup osd_mkfs_options_xfs command: Running command: /usr/bin/ceph-conf --cluster=ceph --name=osd. --lookup osd_mount_options_xfs command: Running command: /usr/bin/ceph-conf --cluster=ceph --name=osd. --...
升级的一部分包括3台Debian服务器(我们在这里称它们为server1、server2和server3),它们运行在ProxMoxV5+Debian/stretch上,每个都有12个Ceph OSD(总共65.45TB),这就是Proxmox与Ceph的超融合集群。 首先,我们将ProxMoxV5/stretch系统升级为ProxMoxV6/buster,然后再更新CephV12.13至最新版本14.2版本,由ProxMoxV6/buster支持...
我们知道,ceph集群的osd状态有好几种,最常见的就是up/down/in/out/destroyed,其中前面4种状态,ceph集群是可以自动调整切换的,如osd进程发生故障,在超时时间后,osd在集群的状态就会变成down,当osd重新被创建时,它在集群中的状态会重新up和in,但是destroyed状态必须是人为进行操作的,在松鼠哥的课程中有提到,osd坏盘...