ceph osd lspools 我这里名为 test 的 pool 的 ID 为 4,所以 test 下面的 PG 的 ID 都是以 4 开头的。 查看pg和osd的映射关系: ceph pg dump | grep ^4. |awk'{print $1 "\t" $17 "\t" $10}' 查看pg状态: ceph pg dump pgs_brief 获取pg数量 ceph osd pool get{pool-name}pg_num 存...
Recovering:正在恢复态,集群正在执行迁移或同步对象和他们的副本,这可能是由于添加了一个新的OSD到集群中或者某个OSD宕掉后,PG可能会被CRUSH算法重新分配不同的OSD,而由于 OSD 更换导致 PG 发生内部数据同步的过程中的 PG 会被标记为 Recovering。Backfilling:正在后台填充态,backfill是recovery的一种特殊场景,指peeri...
ceph pg ls-by-pool mypool | awk '{print $1,$2,$15}' # 验证PG和PGP的组合 ceph osd pool ls 或者 rados lspool # 列出所有的pool 上传文件: rados put msg1 /var/log/syslog --pool=mypool # 文件上传mypool并且指定对象id为msg1 列出文件: rados ls --pool=mypool 文件信息: ceph osd ma...
PGP是为了管理placement而存在的专门的PG,它和PG的数量应该保持一致。如果你增加pool的pg_num,就需要同时增加pgp_num,保持它们大小一致,这样集群才能正常rebalancing。 ceph osd poolsetegon_test pg_num60ceph osd poolsetegon_test pgp_num60 3、查看存储池 # 查看ceph集群中的pool数量ceph osd lspools # ...
ceph osd lspools 或者 ceph osd pool ls 在ceph集群中创建一个pool ceph osd pool create rbdtest 100 #这里的100指的是PG组: 查看集群中所有pool的副本尺寸 ceph osd dump | grep 'replicated size' 查看pool 最大副本数量 ceph osd pool get rbdpool size ...
要查看Ceph中pool的状态,首先需要登录到Ceph集群的管理节点,一般来说是通过SSH连接到对应的节点。登录后,可以使用命令行工具来查看pool的状态。以下是一些常用的命令: 1. 查看所有pool的状态: ``` ceph osd pool ls ``` 这个命令会列出当前集群中所有的pool,包括pool的名称、pg_num(即数据分布的副本数)、size...
快照:用ceph osd pool mksnap创建快照的时候,实际上创建了某一特定存储池的快照。 设置所有者:你可以设置一个用户 ID 为一个存储池的所有者。 1. 创建 pool # ceph osd pool create <poolname> <pg-num> 2. pool 列表 # ceph osd lspools
POOL、PG简介 1、POOLS: 存储池,它们是用于存储对象的逻辑分区。 Ceph 客户端从 Ceph 监视器检索集群映射,并将对象写入池中。池size或副本的数量、CRUSH 规则和归置组的数量决定了 Ceph 将如何放置数据。 在这里插入图片描述 池至少设置以下参数: 对象的所有权/访问权 归置组的数量 要使用的 CRUSH 规则CRUSH 是...
创建快照:rbd snap create blockpool/vm@vm-snap1 列出快照:rbd snap ls blockpool/vm 回滚快照:rbd snap rollback blockpool/vm@vm-snap1 删除快照:rbd snap rm blockpool/vm@vm-snap1 删除所有快照:rbd snap purge blockpool/vm 克隆快照: 克隆将访问父快照,如果用户 无意中删除了父快照。为防止数据丢失...
$ ceph osd pool create test_metadata32321.2. 这样就创建了两个pool,如果你愿意的话呢,后边可以跟上两个数字,两个数字就代表的是PG的数量和PGP的数量了,默认是32,一般不需要修改,根据我有限的条件下测试,不影响性能。 5.2 删除pool 删除pool也是比较坑的,默认规则不让删除,网上查的都是写配置文件里,实测没用...