1. 设置osd pool min_size 首先通过rados命令查看pool例如以下: #rados lspools data metadata rbd 默认的osd的min_size数量配置为2,这里以一个osd为例须要将其设置为1 ceph osd pool get {pool-name} {key} ceph osd pool set {pool-name} {key} {value} #ceph osd pool set data min_size 1 2. ...
ceph osd pool set-quota mypool max_bytes 10737418240 #限制最大 10737418240 字节 4、存储池可用参数 size:存储池中的对象副本数,默认一主两个备 3 副本。 ceph osd pool get mypool size ceph osd pool get mypool min_size min_size:提供服务所需要的最小副本数,如果定义 size 为 3,min_size 也为 ...
osd_crush_update_on_start=false 1. 将crushmap映射到ceph集群后,查看osd tree分布,这里由于我是虚拟机,所以所有的磁盘都是别hdd,这点请忽略。 创建并验证ssd-pool。 复制 ceph osd poolcreatessd-pool88 1. 查看crush_rule为0。 修改规则集为1,把ssd-pool放到ssd磁盘下。 复制 ceph osd poolsetssd-pool ...
ceph osd pool set-quota {pool-name} [max_objects {obj-count}] [max_bytes {bytes}] For example: ceph osd pool set-quota data max_objects 10000 To remove a quota, set its value to 0.Delete a Pool To delete a pool, execute: ceph osd pool delete {pool-name} [{pool-name} --...
#修改资源池#官方推荐,pg数量建议是256个,按照如下调整ceph osd poolsetk8s pg_num256#修改min_size,表示最少有两个副本可用的时候才能读写,这样保证了#数据的一致性,但是牺牲了数据的可用性ceph osd poolsetk8s min_size1#重命名ceph osd poolrenamek8s k8s_test#使用rados简单对象操作#将/etc/hosts文件上传ra...
ceph osd pool set ssd-pool crush_rule ssd-pool 可以看到ssd-pool的池已经使用crush_rule 1了 我们再创建sata-pool池,并做上面操作测试,可以看到sata-pool的池已经使用crush_rule 2了 分别往两个池里写入数据测试 rados -p <pool_name> put <file_name> 现在验证对象是否...
ceph osd pool set {pool-name} pg_num 128 ceph osd pool set {pool-name} pgp_num 128 注: 1、扩容大小取跟它接近的2的N次方 2、在更改pool的PG数量时,需同时更改PGP的数量。PGP是为了管理placement而存在的专门的PG,它和PG的数量应该保持一致。如果你增加pool的pg_num,就需要同时增加pgp_num,保持它...
[ceph: root@node /]# ceph config get mon osd_pool_default_size 3 1. 2. 使用ceph osd pool set pooI-name size number-of-replica命令修改池大小,或者,更新osd_pool_default_size配置设置的默认设置 osd_pool_default_min_size参数设置一个对象的拷贝数,必须可以接受I/O的请求,缺省值为2 ...
执行ceph osd pool set ssd min_size 1调整为1 2.调整osd reweight,让pg不再分配读写到这个osd ceph osd reweight 64 0 3.等待集群最终恢复health: HEALTH_OK 故障处理完成,回去接着睡觉,醒来再写文档... 参考文档 [1].osd_pool_default_min_size配置(https://blog.csdn.net/a1454927420/article/details...
ceph osd poolsetssd-pool crush_rule ssd-pool 可以看到ssd-pool的池已经使用crush_rule 1了 我们再创建sata-pool池,并做上面操作测试,可以看到sata-pool的池已经使用crush_rule 2了 分别往两个池里写入数据测试 代码语言:javascript 复制 rados-p<pool_name>put<file_name> 现在验证对象是否...