最后,通过kubectl get pods命令查看Pod的状态,确认Pod已成功创建并正在使用CephFS存储。可以进入Pod中查看分区情况。使用kubectl exec命令,以交互式终端的方式进入名为cephfs的Pod。在Pod内部,执行df -h命令可以查看当前分区的使用情况。24. 创建PV使用CephFS存储 首先,你需要编辑一个名为cephfs-test-pv.yml的YA...
apiVersion:v1kind:Podmetadata:name:cephfs-test-podspec:containers:-name:nginximage:nginximagePullPolicy:IfNotPresentvolumeMounts:-name:data-volumemountPath:/usr/share/nginx/html/volumes:-name:data-volumecephfs:monitors:-10.0.0.31:6789-10.0.0.34:6789-10.0.0.35:6789path:/user:adminsecretRef:name:c...
2)文件系统 (CephFS) 测试 1、创建 StorageClass 代码语言:javascript 代码运行次数:0 运行 AI代码解释 kubectl apply -f csi/cephfs/storageclass.yaml 2、部署应用 代码语言:javascript 代码运行次数:0 运行 AI代码解释 kubectl apply -f filesystem.yaml 3)对象存储 (RGW) 测试 1、创建对象存储 代码语言:...
在Ceph中创建CephFS(Ceph Filesystem)需要执行以下步骤: 1. 检查当前的 CephFS 状态 ceph fsls 如果返回为空,说明还没有 CephFS 文件系统。 2. 创建 CephFS (1) 创建元数据池和数据池 CephFS 需要一个元数据池(Metadata Pool)和至少一个数据池(Data Pool)。 创建一个元数据池: ceph osd pool create my...
本文章介绍如何使用ceph为k8s提供动态申请pv的功能。ceph提供底层存储功能,cephfs方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany ,ReadWriteMany,RBD支持ReadWriteOnce,ReadOnlyMany两种模式 访问模式只是能力描述,并不是强制执行的,对于没有按pvc声明的方式使用pv,存储提供者应该负责访问时的运行错误。例如如果...
在Kubernetes(K8s)中使用CephFS作为存储卷,涉及多个步骤,包括在Ceph集群中创建文件系统、配置用户权限、在K8s中创建secret、配置PV和PVC等。以下是详细步骤: 1. 在Ceph集群中创建CephFS文件系统 首先,在Ceph集群中创建一个CephFS文件系统,并创建相应的存储池。以下是一个示例命令: bash # 创建数据存储池 ceph osd ...
csi-cephfs-secret csi.storage.k8s.io/provisioner-secret-namespace: notebook csi.storage.k8s.io/controller-expand-secret-name: csi-cephfs-secret csi.storage.k8s.io/controller-expand-secret-namespace: notebook csi.storage.k8s.io/node-stage-secret-name: csi-cephfs-secret csi.storage.k8s.io/node...
现在,K8s可以直接复用PVE Ceph存储,真是太棒了!📊图1展示了K8s创建的pvc,图2展示了K8s创建的storageclass,图3则展示了PVE创建的cephfs,带有k8s前缀的部分是专门为K8s集群预留的。🎉现在,我们的K8s集群可以更加高效地利用CephFS作为存储解决方案,再也不用在Ceph和Longhorn之间来回折腾了!
•Ceph其使用最多的是最成熟的Ceph RBD(块存储),其次是Ceph RADOS •十年的历史,成千上万的用户,是现代云平台存储的首选 CEPH整体架构: •ceph的底层是自已开发的rados •rados之上提供了librados与cephfs •app可以直接使用librados(源码级集成) ...
#修改主机名 hostnamectl set-hostname --static ceph-node01 hostnamectl set-hostname --static ceph-node02 hostnamectl set-hostname --static ceph-node03 #申明hosts cat << EOF >> /etc/hosts 192.168.199.44 ceph-node01 192.168.199.45 ceph-node02 192.168.199.46 ceph-node03 EOF ...