排查ceph集群发现,有一个osd处于full,2个osdnearfull,ceph集群出现fullosd会禁止写入和删除操作(nearfull是即将到达full状态的一个提醒,在此状态时,应该及时安排集群扩容等处理。) 进入cep-tool使用ceph osd df 查看 有一个osd使用率超过90%,两个超过了85% 执行 ceph balancer on #启用自动平衡 ceph balancer sta...
rook-ceph-osd-4-556d4cb6b5-jv2cf 2/2 Running 0 162m rook-ceph-osd-5-5d8b5bd559-57r4h 2/2 Running 0 162m rook-ceph-osd-prepare-master-cfm4b 0/1 Completed 0 163m rook-ceph-osd-prepare-node-xm6kv 0/1 Completed 0 163m rook-ceph-osd-prepare-node2-nlbzj 0/1 Completed 0 162...
2)开启网络为host模式,解决无法使用cephfs pvc的bug(如果不用cephfs不用修改) network:provider:host 官方的一个例子,一个节点挂载多个硬盘做ceph 后期想扩容直接在配置文件中添加,然后重新apply即可 https://rook.io/docs/rook/v1.5/ceph-cluster-crd.html apiVersion:ceph.rook.io/v1kind:CephClustermetadata:n...
我个人认为主要是三点价值:一是存储的内置集成会使得 k8s 与 Ceph 深度绑定,且内置插件各种限制,也不利于版本更新与迁移;二是在 k8s 集群上,可以便捷地容器化部署 Ceph 集群;三是使用 Rook 来管理使用 Ceph ,提供自我管理、自我扩展和自我修复的云原生存储服务。 2.2.2 层次结构 结合上图,自底向上的层次来了解...
将新增的三台存储专用节点加入已有的 Kubernetes 集群,详细的扩容操作请参考 KubeKey 扩容 Kubernetes Worker 节点实战指南。 3.2 设置节点标签 按规划给三个存储节点和其它 Worker 节点打上专属标签。 存储节点标签 # 设置 rook-ceph 部署和存储Osd 节点标签 kubectl label nodes ksp-storage-1 node.kubernetes.io...
12-3 使用Rook部署Ceph集群上 01:16 12-4 使用Rook部署Ceph集群下 13:11 12-5 创建块存储类型的动态存储 11:42 12-6 StatefulSet动态申请存储 13:43 12-7 使用PVC动态申请存储 07:33 12-8 共享文件系统类型的StorageClass 11:36 12-9 PVC在线扩容和PVC快照 09:13 12-10 Rook集群清理和重建...
1、Rook & Ceph 介绍 1.1、Rook Rook 是专用于 Cloud-Native 环境的文件、块、对象存储服务。它实现了一个自动管理的、自动扩容的、自动修复的分布式存储服务。Rook 支持自动部署、启动、配置、分配、扩容/缩容、升级、迁移、灾难恢复、监控以及资源管理。为了实现所有这些功能,Rook 需要依赖底层的容器编排平台,例如ku...
Rook是一款云原生环境下的开源分布式存储编排系统,目前支持 Ceph、NFS、Edegefs、Cassandra、CockroachDB等存储系统。它实现了一个自动管理的、自动扩容的、自动修复的分布式存储服务。Rook 支持自动部署、启动、配置、分配、扩容/缩容、升级、迁移、灾难恢复、监控以及资源管理。
12-3 使用Rook部署Ceph集群上 01:16 12-4 使用Rook部署Ceph集群下 13:11 12-5 创建块存储类型的动态存储 11:42 12-6 StatefulSet动态申请存储 13:43 12-7 使用PVC动态申请存储 07:33 12-8 共享文件系统类型的StorageClass 11:36 12-9 PVC在线扩容和PVC快照 09:13 12-10 Rook集群清理和重建...