osd.1 up in weight 1 up_from 4577 up_thru 4966 down_at 4575 last_clean_interval [4521,4574) 10.1.1.34:6825/338609 10.1.1.34:6827/338609 10.1.1.34:6841/338609 10.1.1.34:6844/338609 exists,up 68630ac4-09a4-4b50-9dba-4bbe161bc6b3 osd.2 up in weight 1 up_from 4568 up_thru 4966 ...
ceph auth get-or-create client.admin mds'allow *'osd'allow *'mon'allow *'> /etc/ceph/ceph.client.admin.keyring1# 或者ceph auth get-or-create client.admin mds'allow *'osd'allow *'mon'allow *'-o /etc/ceph/ceph.client.admin.keyring1 9、创建一个名为osd.0 的用户,设置好用户对mon、...
ceph osdset<flag> ceph osdunset<flag> OSD_FLAGS 一个或多个 OSD 或 CRUSH {nodes,device classes} 设置了一个感兴趣的标志。这些标志包括: noup : 这些 OSD 不允许启动 nodown : 这些 OSD 的故障报告将被忽略 noin:如果这些 OSD 之前在失败后被自动标记为out,则它们在启动时不会被标记为innoout:如果...
cephosdpoolset<poolname>hit_set_type<type>cephosdpoolset<poolname>hit_set_period<period-in-seconds>cephosdpoolset<poolname>hit_set_count<number-of-hitsets>cephosdpoolset<poolname>hit_set_fpp<target-false-positive-rate> OSD_NO_SORTBITWISE¶ No pre-luminous v12.y.z OSDs are running but ...
ceph 不允许向满的osd 写入数据。mon osd full ratio默认为0.95,达到0.95阻止写入,mon osd health ratio默认0.85,0.85健康告警 增加osd 删除不需要的数据 单独调整已满的osd 的near full 和full比例 ceph tell osd.id injectargs '--mon-osd-full-ratio .98' ...
ceph tell osd.* injectargs--osd_max_backfill=1ceph osd unset norebalance 1. 2. 之后,Ceph集群将开始数据迁移。 注意:这个解决方案是非常可行的,但是你必须考虑到具体的情况与需求。当我们不想在任何OSD Down时造成过多的网络负载时,我们就可以使用norebalance。
更新Ceph OSD 個別子集的noout、noin、nodown及noup旗標。 範例 PUT /api/osd/flags/individual HTTP/1.1 Host: example.com Content-Type: application/json { "flags": { "nodown": true, "noin": true, "noout": true, "noup": true }, "ids": [ 1 ] } ...
1.说明 1.1介绍 OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。 2. 常用操作...
ceph tell osd.1 configsetdebug_osd 30 ceph daemon mon.ceph01 configsetdebug_osd 30 3.8 查看当前节点所有选项值 bash ceph config show-with-defaults osd.0 4. ceph通用配置 4.1 mon bash vim /etc/ceph/ceph.conf [global] fsid = 3104ac28-72bc-11ed-85c7-8d65cf0dc0c6 ...
然后减小backfill到1并取消norebalance: ceph tell osd.* injectargs --osd_max_backfill=1 ceph osd unset norebalance 1. 2. 之后,Ceph集群将开始数据迁移。 如果要确保在运行reweight命令后是否一切正常,可以运行ceph -s查看集群当前的健康状态。