在Ceph 中创建 pool 是一个重要的操作,pool 是 Ceph 存储集群中的逻辑组织单位,可以将对象存储在不同的 pool 中以实现不同的存储要求。在 Ceph 中,创建 pool 是一个相对简单的操作,但需要按照一定的步骤来完成。 首先,我们需要登录到 Ceph 集群的管理节点,可以使用 ssh 或者直接在管理节点上操作。接着,我们需...
首先,我们需要登录到Ceph集群中的管理节点,并使用管理员权限执行以下命令来创建一个新的存储池: ``` ceph osd pool create[] [replicated|erasure] [crush_rule] ``` 其中,``是要创建的存储池的名称,``是存储池的PG(Placement Group)数量,``是PG的Placement Group Placement(PGP)数量,`replicated|erasure`表...
ceph osd pool delete/rm {pool-name} [{pool-name} --yes-i-really-really-mean-it] 要删除池,必须在/etc/ceph/ceph.conf中mon的配置中将mon_allow_pool_delete标志设置为true 6.重命名池 ceph osd pool rename {current-pool-name} {new-pool-name} 7.显示池统计信息 rados df ##显示池的利用率统...
创建块存储必须先创建pools 1 创建pool 查看群集内是否有pools存在 ceph osd lspools 目前已经有一个device_health_metrics pool存在,这个池是之前添加OSD磁盘时系统创建的 查看这个池目前使用状态 ceph df 如果要修改pool名字可以用以下语句执行 osd pool rename <srcpool> <destpool> ...
ceph osd pool set ssd-pool crush_rule ssd-pool 可以看到ssd-pool的池已经使用crush_rule 1了 我们再创建sata-pool池,并做上面操作测试,可以看到sata-pool的池已经使用crush_rule 2了 分别往两个池里写入数据测试 rados -p <pool_name> put <file_name> 现在验证对象是否...
1、没有创建pool之前 [root@cluster9 ceph-cluster]#ceph -scluster: id: d81b3ce4-bcbc-4b43-870e-430950652315health: HEALTH_OK services: mon:1daemons, quorum cluster9 mgr: cluster9(active) osd:3 osds: 3 up, 3indata: pools:0 pools, 0pgs ...
6 创建资源池 [root@ceph-admin getcrushmap]# ceph osd pool create ssd_pool 8 8pool'ssd_pool'created [root@ceph-admin getcrushmap]# ceph osd pool create stat_pool 8 8pool'stat_pool'created [root@ceph-admin getcrushmap]# ceph osd dump|grep ssdpool28'ssd_pool'replicated size3min_size2...
ceph创建pool时pg_num的配置 pg_num# 用此命令创建存储池时: 代码语言:javascript 复制 ceph osd pool create{pool-name}pg_num 确定pg_num取值是强制性的,因为不能自动计算。常用的较为通用的取值: 少于5个osd,pg_num设置为128 osd数量在 5 到 10 个时,pg_num设置为512...
软件开发/销售Ceph 部署ceph集群,创建pool后,提示100.000% pgs unknown? [root@node1 ~]# ceph -w cluster: id: 2386c327-8eb1-4dd7-9fed-fedff947c383 health: HEALTH_WARN Reduced data availability: 128 pgs inactive services: mon: 2 daemons, quorum node0,node1 mgr: openstack(active) osd: ...