ceph osd pool create {pool-name} [{pg-num} [{pgp-num}]] [replicated] \ [crush-rule-name] [expected-num-objects] (2)创建纠删码存储池 ceph osd pool create {pool-name} [{pg-num} [{pgp-num}]] erasure \ [erasure-code-profile] [crush-rule-name] [expected_num_objects] [--autosc...
ceph osd pool get mypool nodeep-scrub #查看当前是否关闭深度扫描数据,默认为不关闭,即开启 ceph osd pool set mypool nodeep-scrub true #可以修改某个指定的 pool 的深度扫描测量为 true,即不执行深度扫描 ceph osd pool get mypool nodeep-scrub #再次查看就不执行深度扫描了 scrub_min_interval:集群存储...
在这种pool中,每个数据对象都被存放在K+M个数据块中:对象被分成K个数据块和M个编码块;pool的大小被定义成K+M块,每个块存储在一个OSD 中;块的顺序号作为object的属性保存在对象中。可见,这种pool用更少的空间实现存储,即节约空间;纠删码实现了高速的计算,但有2个缺点,一个是速度慢,一个是只支持对象的部分...
cephosdpoolcreate{pool-name}[{pg-num}[{pgp-num}]][replicated]\[crush-rule-name][expected-num-objects] or: cephosdpoolcreate{pool-name}[{pg-num}[{pgp-num}]]erasure\[erasure-code-profile][crush-rule-name][expected_num_objects][--autoscale-mode=<on,off,warn>] For a brief description...
Ceph是一种开源的分布式存储系统,能够高效地管理大规模的存储资源。在Ceph中,存储资源被划分成不同的存储池(pool),每个存储池包含多个对象存储设备(OSD)。为了更好地监控和管理Ceph集群中的存储资源,管理员需要经常查看存储池和OSD的状态。 要查看Ceph集群中的存储池和OSD的状态,可以使用Ceph的命令行工具。下面是一些...
在ceph上操作存储池不外乎就是查看列出、创建、重命名和删除等操作,常用相关的工具都是“ceph osd pool”的子命令,ls、create、rename和rm等; 1、创建存储池 副本型存储池创建命令格式 1 ceph osd pool create <pool-name> <pg-num> [pgp-num] [replicated] [crush-rule-name] [expected-num-objects] ...
ceph osd pool create {pool-name} {pg-num} [{pgp-num}] 1. 2、命令行 ceph osd pool create volumes 2048 2048 1. 3、pg-num与gpg-num 1、pg-num与gpg-num知识 当前以 36 osd 只创建一个池 3 副本的容量进行计算 假如预计以后需要进行两倍扩容, 那么建议 pg-num 与 pgp-num 设定为 4096 ...
简介:ceph 指定OSD创建pool 背景 在我们的ceph集群中,可能不只有sata盘或者ssd盘,有些时候服务器上同时插了ssd和sata盘用作osd,那如果我们按照默认的crush分布规则,那会使所有pg均分在ssd和sata盘上,造成sata盘的存储空间浪费和整个ceph集群的性能浪费,其实我们可以改变ceph的默认存储规则,来使那些io要求较高的数据...
osd_crush_update_on_start=false 1. 将crushmap映射到ceph集群后,查看osd tree分布,这里由于我是虚拟机,所以所有的磁盘都是别hdd,这点请忽略。 创建并验证ssd-pool。 复制 ceph osd poolcreatessd-pool88 1. 查看crush_rule为0。 修改规则集为1,把ssd-pool放到ssd磁盘下。
ceph osd pool create ssd-pool88 查看crush_rule为0 修改规则集为1,把ssd-pool放到ssd磁盘下 代码语言:javascript 复制 ceph osd poolsetssd-pool crush_rule ssd-pool 可以看到ssd-pool的池已经使用crush_rule 1了 我们再创建sata-pool池,并做上面操作测试,可以看到sata-pool的池已经使用crush_rule 2了 ...