size是该pool的副本数,也即数据有size个副本;min_size是指当集群出现故障时,PG至少还有min_size副本正常时,可以服务io。 那么min_size是怎么控制io是否能服务的呢? min_size控制io是否能服务主要是如下两步: 1. 根据min_size设置PG的状态 PG在peering状态结束后,也即在PG::RecoveryState::Active::react(const...
pool1 的 size 和 min_size 都是 3,它的一个 pg 9.1e 分布在 OSD [5,0,3] 上。 0: 杀掉osd.5 + 1: osdmap e277 pool 'pool1' (9) object 'Evernote_5.8.6.7519.exe' -> pg 9.6094a41e (9.1e) -> up ([5,3,0], p5) acting ([5,3,0], p5) 杀掉之后 osdmap 并不会立刻更...
pool1 的 size 和 min_size 都是 3,它的一个 pg 9.1e 分布在 OSD [5,0,3] 上。 0: 杀掉osd.5 + 1: osdmap e277 pool 'pool1' (9) object 'Evernote_5.8.6.7519.exe' -> pg 9.6094a41e (9.1e) -> up ([5,3,0], p5) acting ([5,3,0], p5) 杀掉之后 osdmap 并不会立刻更...
~]$ ceph osd pool get [key name] 如。 ~]$ ceph osd pool get size 如果不跟个key名称,会输出所有参数,但有个报错。 设置参数。 ~]$ ceph osd pool set 常用的可用配置参数有。 size:存储池中的对象副本数 min_size:提供服务所需要的最小副本数,如果定义size为3,min_size也为3,坏掉一个OSD,如...
min_size 1 # pool中最小指定的副本数量不能小于1 min_size 10 # pool中最大指定的副本数量不能大于10 # pg到osd daemon的检索步骤 step take datacenter0 # 定义pg查找副本的入口点datacenter0 # 这一步选择一个根节点,这个节点不一定是root # 这个节点可以是任何一个故障域 ...
ceph min_size 为1 在使用Ceph集群进行数据存储时,设置min_size参数为1是一个常见的做法。在Ceph中,min_size参数决定了在数据容错性方面的表现。将min_size参数设置为1意味着系统可以容忍单个故障域的失败,而不会因为该故障域的失效而导致整个系统不可用。
min_size 1 #pool中最小指定的副本数量不能小1 max_size 10 #pool中最大指定的副本数量不能大于10 step take default #查找bucket入口点,一般是root类型的bucket step chooseleaf firstn 0 type host #选择一个host,并递归选择叶子节点osd step emit #结束 ...
Ceph为了保存一个对象,对上构建了一个逻辑层,也就是池(pool),用于保存对象,这个池的翻译很好的解释了pool的特征,如果把pool比喻成一个中国象棋棋盘,那么保存一个对象的过程就类似于把一粒芝麻放置到棋盘上。 Pool再一次进行了细分,即将一个pool划分为若干的PG(归置组 Placement Group),这类似于棋盘上的方格,所有...
一般 创建 pool 之后可以查看、修改 pool 的相关属性,常用的属性有:size、min_size、rule、pg_num、pgp_num 等 3.1 获取 pool 属性 # ceph osd pool get {pool-name} {key} 1. 3.2 设置 pool 属性 # ceph osd pool set {pool-name} {key} {value} ...
作为admin,当然可以把配置降低,把数据pool的min_size下降为1。但这种配置,即使在正常情况下,因为磁盘故障,都有可能丢失数据,因此一般不会这样设置。 那在扩容时,一次只扩容一台机器时,是不是就安全了呢? 这样就能保证所有PG都至少在老机器有2个完整的副本了。可是,即使是扩容一台机器,也还要面临扩容时老机器中...