ceph osd crush rule create-erasure h_ruleset h_profile 输出形如: [root@node81~]# ceph osd crush rule create-erasure h_ruleset h_profile created rule h_ruleset at2[root@node81~]#[root@node81~]#[root@node81~]# ceph osd crush rule ls//查看所有的crushruleeplicated_rule data_ruleset h_...
ceph osd crush rulecreate-erasure {rulename} {profilename} 删除规则 ceph osd crush rulerm{name} 3、CURSH存储策略(示例) 设置存储类 # ceph osd crushset-device-class<class><osdId>[<osdId>]ceph osd crush rm-device-classosd.8osd.7osd.6ceph osd crushset-device-classssd osd.8osd.7osd.6 ...
存储池的管理通常保存创建、列出、重命名和删除等操作,管理工具使用 ceph osd pool的子命令及参数,比如 create/ls/rename/rm 等。http://docs.ceph.org.cn/rados/ #ceph 官方运维手册 1、存储池管理常用命令 创建存储池命令格式: $ceph osd pool create <poolname> pg_num pgp_num {replicated|erasure} 列出...
cephosdcrushrulecreate-erasure{name}{profile-name} Deleting rules¶ Rules that are not in use by pools can be deleted with: cephosdcrushrulerm{rule-name} Tunables¶ Over time, we have made (and continue to make) improvements to the CRUSH algorithm used to calculate the placement of data...
'room级别': ceph osd crush add osd.{osd_id} {osd weight} root={root_rulename} room={room_name} rack={rack_name} host={hostname} 例子:部署1个root,1个room,2个rack,每个rack下1个host 部署命令: ceph osd crush add osd.0 1 root=piglet room=pig-room rack=pig-rack1 host=pig-node65...
1. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。 2. 考虑了容灾的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。 3. 能够支持上千个存储节点的规模,支持TB到PB级的数据。 - 高可用 : 1. 副本数可以灵活控制 ...
ceph osd crush rule create-replicated onhdd default host hdd 1. 创建一个名为 rbd 的复制池,其含有 16 个 PG 并且使用 onhdd CRUSH map 规则。将应用类型设置为 rbd,并将这个池中对象的副本数量设置为三。 新建一个名为 rbd 的复制池,其含有 16 个 PG 并且使用 onhdd CRUSH map 规则。将 rbd 设置...
用ceph osd crush set-device-class 自动创建 用ceph-deploy 创建的 osd 默认是 hdd ceph osd crush class ls [ "hdd", ] 这个class 已经不需要创建了,可以删掉某个ssd 的class,再设置为 ssd clas。 就自动多了一个ssd class 。 我们测试一下, ...
[ceph: root@node /]# ceph osd pool create pool-name pg-num pgp-num replicated crush-rule-name 1. 其中: pool_name是新池的名称 pg_num是为这个池配置的放置组 (PG) 总数 pgp_num是这个池的有效放置组数量,将它设置为与 pg_num 相等
Raw $ ceph osd crush rule create-erasure <new-crush-rule-name> <profile-name> $ ceph osd pool set <pool-name> crush_rule <new-crush-rule-name> NOTE: As the crush map gets updated, the cluster will start re-balancing NOTE: It is preferred to Method 2 aboveProduct...