1. 警告含义 health_warn: osd count 0 < osd_pool_default_size 3 警告表明 Ceph 集群的健康状态存在问题,具体是 OSD(Object Storage Daemon)的数量少于集群配置的默认存储池大小(osd_pool_default_size)。在 Ceph 中,OSD 负责存储数据、复制数据以及确保数据的可靠性和可用性。当 OSD 数量不足时,集群可...
OSD count1<osd_pool_default_size3services:mon:1daemons,quorummonosd(age 46m)mgr:monosd_mgr(active,starting,since0.556561s)osd:1osds:1up(since 2m),1in(since 2m)data:pools:1pools,1pgs objects:0objects,0B usage:1.2GiB used,19GiB/20GiB avail pgs:100.000%pgs not active1undersized+peered 如...
ceph.conf "osd pool default size = 2" not working 由Christoph Pedro在超过 10 年之前添加. 更新于超过 10 年之前. 状态: Closed 优先级: Normal 指派给: - 类别: - 目标版本: 0.84 cont. % 完成: 0% Source: Community (user) Backport: ...
51CTO博客已为您找到关于HEALTH_WARN OSD count 2 < osd_pool_default_size 3的相关内容,包含IT学习相关文档代码介绍、相关教程视频课程,以及HEALTH_WARN OSD count 2 < osd_pool_default_size 3问答内容。更多HEALTH_WARN OSD count 2 < osd_pool_default_size 3相关解答可
1. 准备新磁盘 确保新磁盘已经正确连接到节点,并且已经分区并格式化为适当的文件系统(通常是xfs)。 2. 更新Ceph集群配置 在添加新OSD之前,需要更新Ceph集群的配置文件,以包含新磁盘的信息。通常,这可以通过编辑ceph-ansible的inventory文件来完成。 编辑Inventory文件 ...
ceph osd pool set ssd-pool crush_rule ssd-pool 可以看到ssd-pool的池已经使用crush_rule 1了 我们再创建sata-pool池,并做上面操作测试,可以看到sata-pool的池已经使用crush_rule 2了 分别往两个池里写入数据测试 rados -p <pool_name> put <file_name> 现在验证对象是否...
1. 2. 编辑crushmapdump文件,并在root default配置之后添加以下部分,分别创建ssd和sata两个bucket,将osd [0,2,4]作为ssd bucket,osd[1,3,5]作为sata bucket。 复制 root ssd{id-5alg straw hash0item osd.0weight0.010item osd.2weight0.010item osd.4weight0.010}root sata{id-6alg straw ...
例如osd pool size = 2, 那么至少需要 2 个 OSD 1. crush map crush map 可以理解为 ceph 集群中的结构蓝图 所有的存储节点, 及存储节点对应的机柜, osd 信息都可以通过 crush map 体现出来 在启动 MONITOR 后,你的集群具有默认的 CURSH MAP 当前CURSH MAP 并没有 CEPH OSD 进程映射到 CEPH 节点 ...
Degraded data redundancy: 1 pg undersized OSD count 1 < osd_pool_default_size 3 services: mon: 3 daemons, quorum a,b,c (age 2h) mgr: a(active, since 11m) osd: 1 osds: 1 up (since 2h), 1 in (since 3h) data: pools: 1 pools, 1 pgs ...
device 1 osd.1 device 2 osd.2# types #Bucket types默认包含10种类型,也可以自定义新的typetype0 osdtype1 hosttype2 chassistype3 racktype4 rowtype5 pdutype6 podtype7 roomtype8 datacentertype9 regiontype10 root# buckets #剩下的host一致就不打印了host ceph-host-01{id-2# do not change unne...