; ceph -s 以上基本上完成了ceph存储集群的搭建,那么现在就需要进一步对特定的存储方式进行配置。 6.创建ceph文件系统 6.1 在管理节点,通过ceph-deploy把ceph安装... prepare->activate会出现上述问题,主要问题是: 根本就没有命令:systemctl enable ceph-osd@0.service 应该是:systemctl status df -h 卡死解...
ceph -s # 查看Ceph集群状态,确保为HEALTH_OK
这个比较简单,直接执行命令:ceph pg repair $pg_id 修复 说明集群中osd有问题,需要解决osd问题,我就是有3个osd问题,我out了这3个osd,这2个状态就很快消失了 1、问题发现 :ceph -s 或者mon进程死掉看到日志 2、产生原因 产生了大量的epoch,导致mon的store.db的数据极速膨胀。这个是我集群出现问题之后才出现...
ceph-deploy 块设备|rbd的一些命令 修改进程的配置:(临时生效) 常用命令 查看状态 ceph -v //查看ceph的版本 ceph -s //查看集群的状态 ceph -w //监控集群的实时更改|查看正在操作的动作 ceph osd tree #查看osd目录树 ceph osd df //详细列出集群每块磁盘...
1、pg 状态监测(简单 描述) 检查 集群 健康状态时(ceph health、ceph -s、ceph -w 等命令),你需要 关注 集群的健康状态(HEALTH OK -- 健康),如果 集群 处于 异常状态,某些 情况下 需要 监测 pg 状态,本文 就是 简单的描述一下,掌握 检查 集群 健康状态时 所需的基本 概念/知识,以便 后期的 排除异常...
当集群中出现 PG 不一致的问题时,执行 ceph -s 命令会出现下面的信息: 1、查找处于 inconsistent 状态的问题 PG : 这个有问题的 PG 分布在 osd.1 、 osd.2 和 osd.0 上,其中 osd.1 是主 OSD。 2、去主 OSD( osd.1 )的日志中查找不一致的具体对象 。 从日志中可以知道,是 rbd_data.1349f035c101...
Ceph命令 一、集群 1、启动一个ceph 进程 启动mon进程 service ceph start mon.node1 启动msd进程 service ceph start mds.node1 启动osd进程 service ceph start osd.0 2、查看机器的监控状态 [root@client ~]# ceph health HEALTH_OK 3、查看ceph的实时运行状态...
您可以从要停止 Ceph 守护程序的主机以 root 用户身份启动,停止和重新启动所有 Ceph 守护程序。父主题: 了解流程管理 先决条件 在线编辑 正在运行的 IBM Storage Ceph 集群。 具有对节点的 root 访问权。程序 在线编辑 在要启动,停止和重新启动守护程序的主机上,运行 systemctl 服务以获取服务的 SERVICE...
df -h 卡死一般都是挂载目录出现了问题,只要umount掉目录就行了 先 mount | column -t 命令查看目录一般延迟比较大的目录就是出现问题了,如果不会看一个个cd 试下,有问题的目录就会卡住 找到问题目录后 只要umount它就可以了umount-l /proc/sys/fs/binfmt_misc ,选项 –l并不是马上umount,而是在该目录空闲...