[root@k8s-masterceph]# kubectl -n rook-ceph get pod -o wide注意:这里我测试只有一个rook-ceph-operator,和参考文档不太一样 5. 给osd节点增加label 我给master1, master2添加label kubectllabelnodes k8s-master1 ceph-osd=enabled kubectllabelnodes k8s-master2 ceph-osd=enabled 6. 修改cluster.yaml,主...
Rook:是一个用于 Kubernetes 的操作符,用于简化 Ceph 集群在 Kubernetes 上的安装、配置和管理。 OSD(Object Storage Daemon):Ceph 集群中的存储节点,负责数据的存储和恢复。 相关优势 高可用性:Ceph 通过数据复制和自动故障转移确保数据的高可用性。 可扩展性:Ceph 可以轻松扩展以处理大量数据和高负载。
rook-ceph-mon-a-656c57bbf5-mj5jn 2/2 Running 0 170m rook-ceph-mon-b-7b5955d99d-wcqz9 2/2 Running 0 169m rook-ceph-mon-c-78749f8647-jw8n9 2/2 Running 0 168m rook-ceph-operator-99ffdc499-2cjs2 1/1 Running 0 171m rook-ceph-osd-0-b86dff787-zjgbd 2/2 Running 0 166m ...
默认通过cluster.yaml创建Ceph集群时,使用的是filestore,并且使用的是/var/lib/rook/osd-<id>目录,这明显不是我们通常的使用方式,下面介绍如何配置Ceph OSD使用bluestore和具体磁盘。 1、使用所有可用磁盘 如下,若我们配置具体节点上Ceph OSD使用所有可以使用的Devices,并且指定都使用bluestore的方式,则可以类似如下配置:...
一、搭建 rook-ceph(集群)版本:v6 1.1 服务规划(4c3g) 1.2 扫描新磁盘 所有k8s 节点另外准备一块磁盘(裸盘)(/dev/sdb) 在所有节点添加1块100GB的新磁盘:/dev/sdb,作为OSD盘,提供存储空间,添加完成后扫描磁盘,确保主机能够正常识别到: $ for host in $(ls /sys/class/scsi_host) ; do echo "- - ...
Rook 本身很复杂,包含很多 Controller,而 Rook 的复杂不仅体现在这里,并且 Ceph 也非常复杂,在部署和运维上有很多需要注意的地方。本文主要剖析 Rook 启动 osd 的流程,如果有部署过 Ceph 的经验,应该知道加入 osd 大概有两个步骤,1是先 prepare,也就是检查节点上的一些设备是否符合安装 osd,2是激活,也就是 acti...
ceph:v15.2.11 rook: 1.6.3 1.3 前提 正常运行的多节点k8s集群,两个子节点及以上 rook的版本大于1.3,无法使用目录创建集群,要使用单独的裸盘进行创建,也就是创建一个新的磁盘,挂载到宿主机,不进行格式化,直接使用即可。检查步骤: lsblk -f NAME FSTYPE LABEL UUID MOUNTPOINT ...
Ceph 拒绝在不可用的设备上预配 OSD。为保证能成功添加osd,我刚才在每个node上新加了一块磁盘 从特定...
新部署的Ceph集群可以在几分钟内使用。在运行的集群中添加新的OSD不到2分钟。添加RGW和MDS等服务也是如此。Rook建立在Kubernetes之上,因此节点可靠性和改进的故障容忍度成为一等特性。带有Rook后端的编排器CLI可以轻松操作部署的集群,特别是对于那些已经熟悉Ceph CLI的人来说。然而,Ceph的升级还没有自动化,Rook和Ceph...
创建Ceph集群 {kube-node1,kube-node2,kube-node3} 此处应替换为当前集群节点的 node 名称。 给节点打标签 为运行ceph-mon的节点打上:ceph-mon=enabled kubectl label nodes{kube-node1,kube-node2,kube-node3}ceph-mon=enabled 为运行ceph-osd的节点,也就是存储节点,打上:ceph-osd=enabled ...