# ceph quorum_status 查看mon的映射信息 # ceph mon dump 查看mon的admin socket # ceph-conf --name mon.ceph-xx-mon00 --show-config-value admin_socket /var/run/ceph/ceph-mon.ceph-xx-mon00.asok CRUSH Map 创建bucket # ceph osd crush add-bucket host-xx host 移动bucket # ceph osd crush ...
#用 ceph-deploy 把配置文件和admin 密钥拷贝到管理节点和 Ceph 节点, #这样你每次执行 Ceph 命令行时就无需指定 monitor 地址和 ceph.client.admin.keyring 了。 #ceph-deploy admin {admin-node} {ceph-node} ceph-deploy admin admin-node node1 node2 node3 #确保你对 ceph.client.admin.keyring 有正...
$ceph osd erasure-code-profile get default 3.删除ecpool池 1).打开mon节点的配置文件: $ vi /etc/ceph/ceph.conf 2).在配置文件中添加如下内容: [mon] mon allow pool delete = true 3).重启ceph-mon服务: [root@ceph-node1 ceph]# systemctl restart ceph-mon.target 4).执行删除pool命令: $ ce...
ceph osd pool set-quota data max_objects 10000 1. 4、在集群中删除一个pool ceph osd pool delete testpool testpool --yes-i-really-really-mean-it #集群名字需要重复两次 1. 备注:删除pool需要在配置文件ceph.conf中 [mon]添加mon allow pool delete = true并重启mon服务, 如systemctl restart ceph-...
1、启动一个ceph 进程 启动mon进程 service ceph start mon.node1 启动msd进程 service ceph start mds.node1 启动osd进程 service ceph start osd.0 2、查看机器的监控状态 [root@client~]# ceph health HEALTH_OK 3、查看ceph的实时运行状态 [root@client~]# ceph -w ...
ceph命令是Ceph存储集群管理的主要工具,通过ceph命令可以对Ceph存储集群进行监控和管理。以下是一些常用的ceph命令: - 检查集群状态:ceph -s - 查看集群监控器信息:ceph mon stat - 查看集群OSD状态:ceph osd status - 查看集群PG状态:ceph pg stat - 查看集群日志信息:ceph log last ...
Ceph集群检查的目的是确保集群的稳定和正常运行。常用的集群检查命令包括: ceph -s 作用:查看Ceph集群的状态和基本信息,如运行状态、OSD数目、PG数目等。 ceph health 作用:检查Ceph集群的健康状态,返回"OK"表示正常,返回其他信息表示有问题。 ceph osd tree ...
ceph常用命令 检查集群健康状况 启动集群后、读写数据前,先检查下集群的健康状态 ceph health detail 查看pool下的文件 rbd ls 要观察集群内正发生的事件,打开一个新终端 ceph -w 输出信息里包含: 集群唯一标识符 集群健康状况 监视器图元版本和监视器法定人数状态 OSD 版本和 OSD 状态摘要 其内存储的数据和对象...
介绍一些ceph中用到的命令及相关配置 ceph osd df - 可以查看每个osd的用量,每个osd的pg数,权重 ceph osd find <int> - 可以查找到osd的位置,在osd比较多时用到 ceph osd perf - 可以查看所有osd提交及应用提交的延时,对监控osd的健康状态极有帮助 ceph osd scrub <int> - 指定osd进行清洗,注意到,清洗是...
先利用以下命令设置ceph集群为nodown: ceph osd set nodown # Relevant ceph.conf options -- existing setup -- [osd] osd data = /srv/ceph/osd$id osd journal = /srv/ceph/osd$id/journal osd journal size = 512 # stop the OSD: /etc/init.d/ceph osd.0 stop ...