RBD(RADOS块设备)现在称为Ceph块设备,提供了持久化块存储,它是精简配置的,可调整大小,并存储在多个OSD节点条带化数据 RGW(RADOS网关)是提供对象存储服务的接口,它使用libRGW(RGW库)和libRADOS来与应用程序之间的Ceph对象存储建立连接。RGW提供了与Amazon S3和OpenStack Swift兼容的RESTful API。 CephFS是提供POSIX兼容...
1、官方建议不用系统内置用户, 创建名为ceph_user用户, 密码也设为ceph_user:useradd -d /home/c...
cephfs的优点是支持共享读写,如果有这种需求的话得用cephfs。如果没有共享读写需求,可以优先用rbd,...
默认通过cluster.yaml创建Ceph集群时,使用的是filestore,并且使用的是/var/lib/rook/osd-<id>目录,这明显不是我们通常的使用方式,下面介绍如何配置Ceph OSD使用bluestore和具体磁盘。 1、使用所有可用磁盘 如下,若我们配置具体节点上Ceph OSD使用所有可以使用的Devices,并且指定都使用bluestore的方式,则可以类似如下配置:...
Rook和Ceph集群配置 使用以下守护程序启动Rook operator和Ceph集群:MONs,OSD,MGR和Ceph CSI插件和驱动程序。 1.使用CRD(Custom Resource Definition)启动Rook通用组件: kubectl apply -f https://github.com/rook/rook/blob/release-1.3/cluster/examples/kubernetes/ceph/common.yaml ...
OSD count 1 < osd_pool_default_size 3 services: mon: 3 daemons, quorum a,b,c (age 2h) mgr: a(active, since 11m) osd: 1 osds: 1 up (since 2h), 1 in (since 3h) data: pools: 1 pools, 1 pgs objects: 0 objects, 0 B ...
Hi everyone, I am facing an issue, ceph status reporting WARN: ceph status cluster: id: 2338b7c8-2b2a-4aae-9744-3e19ff506f74 health: HEALTH_WARN Reduced data availability: 33 pgs inactive OSD count 0 < osd_pool_default_size 3 services: m...
运行ceph-osd的节点,也就是存储节点,打上:ceph-osd=enabled kubectl label nodes {kube-node1,kube-node2,kube-node3} ceph-osd=enabled 1. 运行ceph-mgr的节点,打上:ceph-mgr=enabled #mgr只能支持一个节点运行,这是ceph跑k8s里的局限kubectl label nodes kube-node1 ceph-mgr=enabled ...
同时,非存储节点将被标记为 node.rook.io/rook-csi=true,这表明它们将承载 Ceph CSI 插件,使得运行在这些节点上的业务 Pod 能够利用 Ceph 提供的持久化存储。 存储介质配置:在每个存储节点上,我将新增一块 100G 的 Ceph 专用数据盘 /dev/sdd。为保证最佳性能,该磁盘将采用裸设备形态直接供 Ceph OSD 使用,...
Rook 还会用 Kubernetes Pod 的形式,部署 Ceph 的 MON、OSD 以及 MGR 守护进程。 Rook Operator 让用户可以通过 CRD 的是用来创建和管理存储集群。每种资源都定义了自己的 CRD. Rook Cluster:提供了对存储机群的配置能力,用来提供块存储、对象存储以及共享文件系统。每个集群都有多个 Pool。