node2:~ # ceph auth add osd.7 mgr "allow profile osd" mon "allow profile osd" osd "allow *" -i /var/lib/ceph/osd/ceph-7/keyring added key for osd.7 5、将新增osd添加至crush图中 node2:~ # ceph osd tree #查看osd权重(即weight值) ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-...
[root@node1 ceph-cluster]# ceph-deploy osd create node1:sdb node1:sdc #每个磁盘都会被自动分成两个分区;一个固定5G大小;一个为剩余所有容量 #5G分区为Journal日志缓存;剩余所有空间为数据盘。 [root@node1 ceph-cluster]# ceph-deploy osd create node2:sdb node2:sdc [root@node1 ceph-cluster]# ce...
OSDMap 是 Ceph 集群中所有 OSD 的信息,所有 OSD 状态的改变如进程退出,OSD的加入和退出或者OSD的权重的变化都会反映到这张 Map 上。这张 Map 不仅会被 Monitor 掌握,OSD 节点和 Client 也会从 Monitor 得到这张表,因此实际上我们需要处理所有 “Client” (包括 OSD,Monitor 和 Client)的 OSDMap 持有情况。
将一个数据对象存储为多个副本在客户端写入操作时, ceph 使用 CRUSH 算法计算出与对象相对应的 PG ID 和 primary OSD主 OSD 根据设置的副本数、 对象名称、 存储池名称和集群运行图(cluster map)计算出 PG的各辅助 OSD, 然后由 OSD 将数据再同步给辅助 OSD。 读取数据: 客户端发送读请求, RADOS 将请求发送...
Ceph 对象存储设备 OSD Ceph 对象存储设备 (OSD)是 Ceph 存储集群的构建块,OSD 将存储设备(如硬盘或其他块设备)连接到 Ceph 存储集群。 一台存储服务器可以运行多个 OSD 守护进程,并为集群提供多个OSD,Ceph 旧版本要求OSD存储设备具有底层文件系统,但BlueStore以原始模式使用本地存储设备,不在需要文件系统,这有助...
一、Pool 相关操作 自恢复力: 你可以设置在不丢数据的前提下允许多少 OSD 失效,对多副本存储池来说,此值是一对象应达到的副本数。典型配置存储一个对象和它的一个副本(即...
Ceph 对象存储设备 OSD Ceph 对象存储设备 (OSD)是 Ceph 存储集群的构建块,OSD 将存储设备(如硬盘或其他块设备)连接到 Ceph 存储集群。 一台存储服务器可以运行多个 OSD 守护进程,并为集群提供多个OSD,Ceph 旧版本要求OSD存储设备具有底层文件系统,但BlueStore以原始模式使用本地存储设备,不在需要文件系统,这有助...
上述osdmap加载过程中涉及到两个内存缓存:map_cache和map_bl_cache(还有一个map_bl_inc_cache是保存增量osdmap的bufferlist的缓存),这两个缓存都是基于LRU算法,在OSDService类的构造函数中初始化的,默认的缓存空间大小(缓存项最大数量)是由配置项osd_map_cache_size决定的,其默认值是500,因此在启动过程中缓存的...
3.2.2. Ceph OSD 对等 3.2.3. 放置组状态 3.2.4. 放置组创建状态 3.2.5. 放置组对等状态 3.2.6. 放置组激活状态 3.2.7. 放置组清理状态 3.2.8. 放置组降级状态 3.2.9. 放置组恢复状态 3.2.10. Back fill 状态 3.2.11. PG 重新映射状态 ...
[INFO]ceph_conf:None[ceph_deploy.cli][INFO]default_release:False[ceph_deploy.gatherkeys][DEBUG]Haveceph.client.admin.keyring[ceph_deploy.gatherkeys][DEBUG]Haveceph.mon.keyring[ceph_deploy.gatherkeys][DEBUG]Haveceph.bootstrap-osd.keyring[ceph_deploy.gatherkeys][DEBUG]Haveceph.bootstrap-mds.key...