最后,通过kubectl get pods命令查看Pod的状态,确认Pod已成功创建并正在使用CephFS存储。可以进入Pod中查看分区情况。使用kubectl exec命令,以交互式终端的方式进入名为cephfs的Pod。在Pod内部,执行df -h命令可以查看当前分区的使用情况。24. 创建PV使用CephFS存储 首先,你需要编辑一个名为cephfs-test-pv.yml的YA...
apiVersion:v1kind:Podmetadata:name:cephfs-test-podspec:containers:-name:nginximage:nginximagePullPolicy:IfNotPresentvolumeMounts:-name:data-volumemountPath:/usr/share/nginx/html/volumes:-name:data-volumecephfs:monitors:-10.0.0.31:6789-10.0.0.34:6789-10.0.0.35:6789path:/user:adminsecretRef:name:c...
2)文件系统 (CephFS) 测试 1、创建 StorageClass 代码语言:javascript 代码运行次数:0 运行 AI代码解释 kubectl apply -f csi/cephfs/storageclass.yaml 2、部署应用 代码语言:javascript 代码运行次数:0 运行 AI代码解释 kubectl apply -f filesystem.yaml 3)对象存储 (RGW) 测试 1、创建对象存储 代码语言:...
ceph-fuse). Linux kernel clients >= 4.17 support CephFS quotas but only on mimic+ clusters. Kernel clients (even recent versions) will fail to handle quotas on older clusters, even if they may be able to set the quotas extended attributes. ...
CephFS (Ceph File System):分布式文件系统,适用于共享存储,如 Web 应用、日志存储。 Object Storage (S3 兼容):适用于大规模对象存储,如图片、备份。 Kubernetes 可以通过Ceph CSI (Container Storage Interface)实现动态存储管理。 2. 部署 Ceph 存储集群 ...
本文章介绍如何使用ceph为k8s提供动态申请pv的功能。ceph提供底层存储功能,cephfs方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany ,ReadWriteMany,RBD支持ReadWriteOnce,ReadOnlyMany两种模式 访问模式只是能力描述,并不是强制执行的,对于没有按pvc声明的方式使用pv,存储提供者应该负责访问时的运行错误。例如如果...
在Kubernetes(K8s)中使用CephFS作为存储卷,涉及多个步骤,包括在Ceph集群中创建文件系统、配置用户权限、在K8s中创建secret、配置PV和PVC等。以下是详细步骤: 1. 在Ceph集群中创建CephFS文件系统 首先,在Ceph集群中创建一个CephFS文件系统,并创建相应的存储池。以下是一个示例命令: bash # 创建数据存储池 ceph osd ...
csi-cephfs-secret csi.storage.k8s.io/provisioner-secret-namespace: notebook csi.storage.k8s.io/controller-expand-secret-name: csi-cephfs-secret csi.storage.k8s.io/controller-expand-secret-namespace: notebook csi.storage.k8s.io/node-stage-secret-name: csi-cephfs-secret csi.storage.k8s.io/node...
现在,K8s可以直接复用PVE Ceph存储,真是太棒了!📊图1展示了K8s创建的pvc,图2展示了K8s创建的storageclass,图3则展示了PVE创建的cephfs,带有k8s前缀的部分是专门为K8s集群预留的。🎉现在,我们的K8s集群可以更加高效地利用CephFS作为存储解决方案,再也不用在Ceph和Longhorn之间来回折腾了!
#修改主机名 hostnamectl set-hostname --static ceph-node01 hostnamectl set-hostname --static ceph-node02 hostnamectl set-hostname --static ceph-node03 #申明hosts cat << EOF >> /etc/hosts 192.168.199.44 ceph-node01 192.168.199.45 ceph-node02 192.168.199.46 ceph-node03 EOF ...