超过50个OSD,可以参考pgcalc计算。 [root@mon1 ~]# ceph osd pool create pool164pool'pool1'created [root@mon1~]# 创建pool时要设置pg_num 调整POOL副本 [root@mon1 ~]# ceph osd pool set pool1 size2set pool3size to2[root@mon1~]# 删除POOL [root@mon1 ~]# ceph osd pool delete pool1 ...
osd_crush_update_on_start=false 1. 将crushmap映射到ceph集群后,查看osd tree分布,这里由于我是虚拟机,所以所有的磁盘都是别hdd,这点请忽略。 创建并验证ssd-pool。 复制 ceph osd poolcreatessd-pool88 1. 查看crush_rule为0。 修改规则集为1,把ssd-pool放到ssd磁盘下。 复制 ceph osd poolsetssd-pool ...
undersized 活跃的pg数量(acting set)小于副本数 degraded osd down或者挂了,其上的pg将会处于降级状态 一个osd down,此时50%的object和35个pg被降级 手动将副本数由2改为1(6个pool改了5个,还有1个pool副本数还是2) **因为我这是测试环境,随便搞,生产环境慎用** ceph osd pool set <poolname> size 1 ...
[root@ceph01 ceph]# ceph osd pool ls detailpool1'device_health_metrics'replicated size3min_size2crush_rule0object_hash rjenkins pg_num1pgp_num1autoscale_mode on last_change63flags hashpspool stripe_width0pg_num_min1application mgr_devicehealth pool2'pool1'replicated size3min_size2crush_rule...
[ceph: root@node /]# ceph osd pool set my_pool pg_num 32 1. 使用ceph osd pool create命令创建池时,不指定副本个数(size),osd_pool _default size配置参数定义了副本的数量,默认值为3 [ceph: root@node /]# ceph config get mon osd_pool_default_size ...
step chooseleaf firstn 0 type osd step emit } rule sata-pool { ruleset 2 type replicated min_size 1 max_size 10 step take sata #使用sata bucket step chooseleaf firstn 0 type osd step emit } 在ceph集群中编译并注入新的crush map。
auth_client_required = cephx osd_pool_default_size = 3 osd_pool_default_min_size = 2 调整pools副本数 osd pool set <pool> size 由于配置文件已经设置,系统会自动应用 ceph osd pool get RDB_Test_pool2 size ceph osd pool set RDB_Test_pool2 size 3...
1. 比如设置pool的冗余副本数量为3: 复制 ceph osd poolsettest-poolsize3 1. 其他配置项参考文档。 通过get操作能够获取pool的配置值,比如获取当前pg_num: 复制 ceph osd pool get test-pool pg_num 1. 获取当前副本数: 复制 ceph osd pool get test-poolsize ...
ceph osd poolsetcephfs_metadata crush_rule rule-ssd###查看存储池信息ceph osd poollsdetail 调整副本数量(大部分系统默认副本数为3,表示同一份数据存储多少个备份,不重要的数据可设置为2或1) ###查看testpool1的副本数量:ceph osd pool get testpool1 size###将testpool1的副本数量设置为2:ceph osd pool...
执行ceph osd pool set ssd min_size 1调整为1 2.调整osd reweight,让pg不再分配读写到这个osd ceph osd reweight 64 0 3.等待集群最终恢复health: HEALTH_OK 故障处理完成,回去接着睡觉,醒来再写文档... 参考文档 [1].osd_pool_default_min_size配置(https://blog.csdn.net/a1454927420/article/details...