在Kubernetes 集群中安装 Rook-Ceph 后显示 OSD 0,这通常意味着 Ceph 集群的第一个对象存储设备(Object Storage Daemon)已经成功部署并运行。下面我将详细解释这个问题的基础概念、相关优势、类型、应用场景,以及可能遇到的问题和解决方法。 基础概念 Ceph:是一个开源的分布式存储系统,提供对象存储、块存储和文件系统...
所有的集群节点都会向 Mon 进行汇报,并在每次状态变更时进行共享信息。 Ceph Object Store Devices(OSD):负责在本地文件系统保存对象,并通过网络提供访问。通常 OSD 守护进程会绑定在集群的一个物理盘上,Ceph 客户端直接和 OSD 打交道。 Ceph Manager(MGR):提供额外的监控和界面给外部的监管系统使用。 Reliable Au...
因为集群ceph是使用rook形式以pod形式部署在集群内的,如果要停掉osd(rook部署的 执行ceph osd down 会立刻重新启动),需要停止osd的pod pod删除后就无法进到osd内执行ceph-bluestore-tool的命令,需要找到一个即能停止osd还可以进入pod的方法,操作如下(osd处于down时间建议不要超过10分钟,防止数据全部冲入其他osd): (...
2、命名用ceph命令查询并删除osd #查询状态,找到要移除的osd id ceph osd status #标记移除的osd ceph osdoutosd.1ceph osd purge1--yes-i-really-mean-it ceph osd crush remove osd.1ceph auth rm osd.1ceph osd rm osd.1 3、删除相关osd节点的deployment kubectl delete deploy rook-ceph-osd-1 -n ...
Kubernetes-集群Rook-Ceph扩容OSD 磁盘要求 新添加的磁盘只能是无分区或格式化文件系统,不能是lvm卷 1. 修改发现磁盘扫描间隔 vim rook/deploy/examples/operator.yaml # The duration between discovering devices in the rook-discover daemonset. - name: ROOK_DISCOVER_DEVICES_INTERVAL...
5.2 卸载osd 或者卸载集群另外一个后遗症,rook-ceph 名称空间删除了,但是 cephcluster无法删除 5.3 打开dashboard显示HEALTH_WARN警告 1.环境准备 1.1 基础环境 3台配置一致的虚拟机: 虚拟机配置:4c 8g 虚拟机操作系统:cents7 硬盘: vda:40G vdb:20G ...
// 恢复rook的operator,使检测到格式化后的osd硬盘,osd启动后ceph集群会自动平衡数据 kubectl-nrook-ceph scale deployment rook-ceph-operator--replicas=1 deployment.apps/rook-ceph-operator scaled 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.
rook-ceph-osd-prepare-ksn2-22zt9 0/1 Completed 0 7s rook-ceph-osd-prepare-ksn3-rncgt 1/1 Running 0 4s 3.3、安装Toolbox 1、kubectl apply -f toolbox.yaml 2、kubectl -n rook-ceph rollout status deploy/rook-ceph-tools --> deployment "rook-ceph-tools" successfully rolled out ...
集群至少含有3个节点,且每个节点都有一块无文件格式、无分区的裸盘,用于创建 3 个 Ceph OSD 节点上含有lvm yum install lvm -y或apt-get install -y lvm2 2. Admission Controller 启用Rook准入控制器,以确保使用自定义资源(CR)设置正确配置了Rook。
When infrastructure storage nodes are restarted or the ODF operator is updated, rook-ceph-osd-prepare pods are launched again. The cluster is configured with X number of OSDs and all X OSDs are up and running. Raw # ceph status cluster: id: xxxx9a3e-d6xx-xxbb-xx8a-cxxxxxxxxxxx health...