例如,要使用上面创建的基于ceph-csi的StorageClass创建基于块的PersistentVolumeClaim,可以使用以下 YAML 从csi-rbd-sc StorageClass请求原始块存储: $cat<<EOF > raw-block-pvc.yaml--- apiVersion: v1 kind: PersistentVolumeClaim metadata: name: raw-block-pvc spec: accessModes: - ReadWriteOnce volumeMode:...
csi.storage.k8s.io/provisioner-secret-namespace: ceph-csi csi.storage.k8s.io/controller-expand-secret-name: csi-rbd-secret csi.storage.k8s.io/controller-expand-secret-namespace: ceph-csi csi.storage.k8s.io/node-stage-secret-name: csi-rbd-secret csi.storage.k8s.io/node-stage-secret-namespace...
com/ceph/ceph-csi/master/deploy/rbd/kubernetes/csi-provisioner-rbac.yaml 离线请按照以下配置 代码语言:javascript 代码运行次数:0 运行 AI代码解释 [root@master-1 ~]# cat csi-provisioner-rbac.yaml --- apiVersion: v1 kind: ServiceAccount metadata: name: rbd-csi-provisioner # replace with non-...
1.2.1)修改csi-rbdplugin-provisioner.yaml和csi-rbdplugin.yaml文件,注释ceph-csi-encryption-kms-config配置: # grep "#" csi-rbdplugin-provisioner.yaml# for stable functionality replace canary with latest release version#- name: ceph-csi-encryption-kms-config# mountPath: /etc/ceph-csi-encryption-kms...
From CephCSI point of view, we have no other to determine clone depth. We need a API change possibly in rbd image info providing us with clone depth from ceph. cc @ceph/ceph-csi-contributors Steps to reproduce: Create [Restore]PVC ...
最后部署 RBD CSI Driver: 代码语言:javascript 代码运行次数:0 运行 AI代码解释 $ kubectl -n ceph-csi create -f csi-rbdplugin.yaml Pod 中包含两个容器:CSI node-driver-registrar 和CSI RBD driver。 创建Storageclass 代码语言:javascript 代码运行次数:0 运行 AI代码解释 $ cat <<EOF > storageclass....
本文详细介绍了如何在 Kubernetes 集群中部署ceph-csi(v3.1.0),并使用RBD作为持久化存储。 需要的环境参考下图: 本文使用的环境版本信息: Kubernetes 版本: $ kubectl get node NAME STATUS ROLES AGE VERSION sealos01 Ready master 23d v1.18.8 sealos02 Ready master 23d v1.18.8 ...
原文链接:[链接]本文详细介绍了如何在 Kubernetes 集群中部署 ceph-csi(v3.1.0),并使用 RBD 作为持久化存储。需要的环境参考下图:本文使用的环境版本信...
caps osd = "profile rbd pool=kubernetes" 1. 2. 3. 4. 5. 6. 7. 3. 部署 ceph-csi 拉取ceph-csi 的最新 release 分支(v3.1.0): AI检测代码解析 $ git clone --depth 1 --branch v3.1.0 https://gitclone.com/github.com/ceph/ceph-csi ...
需要先在ceph上创建一个rbd存储池及用户,用于ceph-csi访问ceph,这里创建一个名为kubeflow-dev的存储池: Bash 复制 创建一个ceph用户用于访问该存储池: Bash 复制 ceph auth get-or-create client.kubeflow-dev mon'profile rbd'osd'profile rbd pool=kubeflow-dev'mgr'profile rbd pool=kubeflow-dev'[client.kube...