kubectl create secret generic ceph --from-literal=key=$ADMIN_USER_SECRET --namespace=default 这样,就成功在k8s中创建了一个名为ceph的secret,并为其分配了指定的密钥。23. 使用CephFS存储创建Pod 首先,编辑cephfs的Pod配置文件,指定Pod的名称、使用的镜像、卷挂载等信息。确保在Pod的配置中正确设置了Ceph...
#数据存储池[root@k8s-master31 ~]# ceph osd pool create cephfs_data_pool 16#元数据存储池[root@k8s-master31 ~]# ceph osd pool create ceph_metadata_pool 8 创建FS: [root@k8s-master31 ~]# ceph fs new k8s-cephfs cephfs_data_pool ceph_metadata_pool [root@k8s-master31 ~]# ceph orch ...
root@k8s-master(192.168.199.41)~>kubeadm config print init-defaults > kube-init.yaml #修改补充初始化文件 root@k8s-master(192.168.199.41)~>cat kube-init.yaml apiVersion: kubeadm.k8s.io/v1beta2 bootstrapTokens: - groups: - system:bootstrappers:kubeadm:default-node-token token: abcdef....
在Kubernetes(K8s)中使用CephFS作为存储卷,涉及多个步骤,包括在Ceph集群中创建文件系统、配置用户权限、在K8s中创建secret、配置PV和PVC等。以下是详细步骤: 1. 在Ceph集群中创建CephFS文件系统 首先,在Ceph集群中创建一个CephFS文件系统,并创建相应的存储池。以下是一个示例命令: bash # 创建数据存储池 ceph osd ...
fuse 挂载方式 csi.storage.k8s.io/provisioner-secret-name: csi-cephfs-secret csi.storage.k8s.io/provisioner-secret-namespace: notebook csi.storage.k8s.io/controller-expand-secret-name: csi-cephfs-secret csi.storage.k8s.io/controller-expand-secret-namespace: notebook csi.storage.k8s.io/node-stag...
在使用 k8s-CSI 时,开可以选择禁用 format 选项。具体操作是,给 k8s-CSI只提供name和metaUrl两个参数即可。这样一来,在 k8s-CSI 运行过程中,就不会实际执行 format过程。这一做法能够带来两大好处: 首先,它能够保护我们的安全信息,如 S3 密钥等敏感数据不被泄露。由于format 过程中可能涉及文件系统的关键信息,...
接下来使用 cephfs-with-secret 和 ceph-secret 方式,这种方式跟上边直接使 admin.secret 文件认证最大的区别就是使用 k8s secret 对象,该 secret 对象用于 k8s volume 插件通过 cephx 认证访问 ceph 存储集群。不过要提一下的是,k8s secret 认证 key 需要使用 base64 编码。
一.k8s使用cephFS指定加密文件之secretFile1.k8s集群的所有worker节点安装ceph软件包CentOS系统: [root@master231 ~]# yum -y install ceph [root@worker232 ~]# yum -y install ceph [root@worker233 ~]# yum -y install ceph Ubuntu系统: [root@master231 ~]# apt -y install ceph-common [root@...
安装Ceph集群、使用k8s挂载cephrbd及cephfs 一、安装Ceph集群 1.1 服务器及环境准备 至少准备三台能够与k8s集群互相通信的服务器 每台机器需要三个硬盘(默认的一块系统盘、两块未分区格式化挂载使用的数据盘),配置4GiB/4vCPU/60G master1 192.168.57.133
让 k8s 中的 pod 可以访问 ceph 中 rbd 提供的镜像作为存储设备,需要在 ceph 创建 rbd、并且让 k8s node 节点能够通过 ceph 的认证。 k8s 在使用 ceph 作为动态存储卷的时候,需要 kube-controller-manager 组件能够访问ceph,因此需要在包括 k8s master 及 node 节点在内的每一个 node 同步认证...