ceph osd crush add osd.6 0.01939 root=default host=node1 将新增osd添加至crush中 ceph-osd -i 6 启动 1、创建OSD-ID 主节点node1执行 这里的 create 后可以跟ID号,不过还是让集群自己给出ID号最好,避免跳过一些ID node1:/etc # ceph osd create 7 node1:/etc # ceph osd stat 8 osds: 7 up,...
[root@ceph ~] sudo ceph osd stat #输出内容大致如下: osdmap e3921: 5 osds: 5 up, 5 in; 命令的结果显示,当前osdmap的版本号为e3921,集群内共有5个OSD,其中处于“up”状态的OSD为5个,处于“in”状态的OSD也为5个。这说明集群中OSD的状态处于正常情况。 如果要启动一个OSD守护进程,请参考前文"集...
在客户端向主OSD写入object的过程,object的副本是由主OSD负责向副本OSD写入的,直到副本OSD在创建object副本完成,并向主OSD发出完成信息前,该PG的状态都会一直处于degraded状态。 又或者是某个OSD的状态变成了down,那么该OSD上的所有PG都会被标记为degraded。 当Ceph因为某些原因无法找到某个PG内的一个或多个object时,...
Create the OSD. If no UUID is given, it will be set automatically when the OSD starts up. The following command will output the OSD number, which you will need for subsequent steps. ceph osd create [{uuid} [{id}]] If the optional parameter {id} is given it will be used as the...
Another important option that can be set with the "ceph osd pool set" command is the "min_size" parameter. This parameter defines the minimum number of replicas that must be maintained for each object in the pool. If the number of replicas falls below this threshold, Ceph will automatically...
[root@ceph~]sudo ceph-s#输出的内容大致如下:cluster b370a29d-xxxx-xxxx-xxxx-3d824f65e339 healthHEALTH_OKmonmap e1:1mons at{ceph1=10.x.x.8:6789/0},election epoch2,quorum0ceph1 osdmap e63:2osds:2up,2inpgmap v41338:952pgs,20pools,17130MBdata,2199objects115GBused,167GB/297GBavail95...
ceph添加OSD故障一例 这几天在给ceph增加OSD时候遇到一个故障,分享一下处理经验。 故障现象: 执行添加命令报错: 代码语言:javascript 复制 # ceph-volume lvm prepare--data/dev/sdv--block.wal/dev/nvme0n1p1--block.db/dev/nvme0n1p7 Running command:/usr/bin/ceph-authtool--gen-print-key...
两个osd 存储节点。osd 节点两个硬盘,一个系统盘,一个数据盘。 虚拟机安装功能如下图: 测试环境 一、 基本配置 1. 所有节点同步时间准备和激活合并为一 我这里用的是 US 池的 NTP 服务器。然后开启并使 NTP 服务在开机时启动。 # apt-get install -y ntp ntpdate ntp-doc ...
1.4 OSD状态 1.5 Monitor状态 1.6 集群空间用量 4.2 daemon子命令 状态获取 关于集群其它的一些操作参考《Ceph存储》系列其它相关文章。 整体运行状态 执行ceph -s命令可以查看ceph集群整体运行状态,如。 [cephadmin@ceph-monitor-1~]$ceph-scluster:id:7e1c1695-1b01-4151-beea-70c008cffd8chealth:HEALTH_WARN2...
作为系统管理员,您可以手动将 Red Hat Ceph Storage 集群节点上的 Ceph OSD 软件和 Red Hat Enterprise Linux 操作系统同时升级到新的主版本。 重要 应当对 Ceph 集群中的每一 OSD 节点执行此步骤,但通常一次仅针对一个 OSD 节点执行此步骤。可以并行执行最多一...