3、主OSD将client的请求的数据返回给client 管理资源池 创建以及配置 # 创建资源池k8sceph osd pool create k8s 1. 2. #查看资源池详细信息ceph osd poollsdetail|grepk8s#或者ceph osd pool get k8s all 1. 2. 3. 4. #修改资源池#官方推荐,pg数量建议是256个,按照如下调整ceph osd poolsetk8s pg_num2...
ceph osd pool get rbdpool size size: 3 查看pool 最小副本数量 [root@node241 ~]# ceph osd pool get rbdpool min_size min_size: 2 设置一个pool的pg数量 ceph osd pool set rbdtest pg_num 100 设置一个pool的pgp数量 ceph osd pool set rbdtest pgp_num 100 修改ceph,数据最小副本数、和副本...
ceph osd pool set-quota mypool max_bytes 10737418240 #限制最大 10737418240 字节 4、存储池可用参数 size:存储池中的对象副本数,默认一主两个备 3 副本。 ceph osd pool get mypool size ceph osd pool get mypool min_size min_size:提供服务所需要的最小副本数,如果定义 size 为 3,min_size 也为 ...
ceph osd pool set-quota {pool-name} [max_objects {obj-count}] [max_bytes {bytes}] For example: ceph osd pool set-quota data max_objects 10000 To remove a quota, set its value to 0.Delete a Pool To delete a pool, execute: ceph osd pool delete {pool-name} [{pool-name} --...
rule sata-pool { ruleset 2 type replicated min_size 1 max_size 10 step take sata #使用sata bucket step chooseleaf firstn 0 type osd step emit } 在ceph集群中编译并注入新的crush map。 crushtool -c crushmapdump-decompiled -o crushmapdump-compiled ...
[root@ceph ~] sudo ceph osd pool set "pool-name" pg_num [pgp_num] [root@ceph ~] sudo ceph osd pool set image 512 512 3. 查看PG信息 若需要获取某个POOL的PG数量或PGP数量,可以使用如下命令: [root@ceph ~] sudo ceph osd pool get "pool-name" pg_num/pgp_num [root@ceph ~] sudo ...
[ceph: root@node /]# ceph config get mon osd_pool_default_size 3 1. 2. 使用ceph osd pool set pooI-name size number-of-replica命令修改池大小,或者,更新osd_pool_default_size配置设置的默认设置 osd_pool_default_min_size参数设置一个对象的拷贝数,必须可以接受I/O的请求,缺省值为2 ...
执行ceph osd pool set ssd min_size 1调整为1 2.调整osd reweight,让pg不再分配读写到这个osd ceph osd reweight 64 0 3.等待集群最终恢复health: HEALTH_OK 故障处理完成,回去接着睡觉,醒来再写文档... 参考文档 [1].osd_pool_default_min_size配置(https://blog.csdn.net/a1454927420/article/details...
step chooseleaf firstn0type osd step emit}rule sata-pool{ruleset2type replicated min_size1max_size10step take sata #使用sata bucket step chooseleaf firstn0type osd step emit} 在ceph集群中编译并注入新的crush map。 代码语言:javascript 复制 ...
ceph osd pool set volumes pg_num512ceph osd pool set volumes pgp_num512 1. 2. 4. CRUSH Map CRUSH是一个非常灵活的方式,CRUSH MAP的调整取决于部署的具体环境,这个可能需要根据具体情况进行分析,这里面就不再赘述了。 5. 其他因素的影响 在今年的(2015年)的Ceph Day上,海云捷迅在调优过程中分享过一个...