在Ceph中,要创建一个新的pool需要使用命令“ceph osd pool create”,通过该命令可以指定pool的名称、副本数、CRUSH规则等参数。下面是一个简单的示例: ``` ceph osd pool create mypool 64 ``` 上面的命令将创建一个名为“mypool”的pool,副本数为64。这里副本数的设置是需要根据实际环境和需求进行调整的,通...
Ceph 客户端向 monitor 请求集群的状态,并向 Pool 中写入数据,数据根据 PGs 的数量,通过 CRUSH 算法将其映射到不同的 OSD 节点上,实现数据的存储。 这里我们可以把 Pool 理解为存储 Object 数据的逻辑单元;当然,当前集群没有资源池,因此需要进行定义。 #创建一个 Pool 资源池,其名字为 mypool,PGs 数量设置为...
Ceph 客户端向 monitor 请求集群的状态,并向 Pool 中写入数据,数据根据 PGs 的数量,通过 CRUSH 算法将其映射到不同的 OSD 节点上,实现数据的存储。 这里我们可以把 Pool 理解为存储 Object 数据的逻辑单元;当然,当前集群没有资源池,因此需要进行定义。 #创建一个 Pool 资源池,其名字为 mypool,PGs 数量设置为...
[root@minikube/]# ceph osd pool create nfs-ganesha 64pool'nfs-ganesha'created[root@minikube/]# ceph osd pool set nfs-ganesha size 1[root@minikube/]# ceph orch nfs add mynfs nfs-ganesha ganesha Here we have created a NFS-Ganesha cluster called “mynfs” in “ganesha” namespace with “...
ceph osd pool create mypool23232ceph osd pool get mypool2 nodelete 如果设置为了true就表示不能删除,可以使用 set 指令重新设置为 fasle ceph osd pool set mypool2 nodeletetrueceph osd pool set mypool2 nodeletefalse 第二个机制是集群范围的配置参数 mon allow pool delete,默认值为 false,即监视器...
ceph osd pool create my_pool6464replicated 管理存储池 一旦创建了存储池,可以使用以下命令来管理存储池: ceph osd pool delete <pool_name> <pool_name> --yes-i-really-really-mean-it:删除存储池。 ceph osd pool set <pool_name> <property> <value>:设置存储池的属性。
[root@ceph-deploy ~]# ceph osd lspools 1 device_health_metrics 2 cephfs_data 3 cephfs_metadata 1. 2. 3. 4. 6.2 创建存储池 (1) 命令格式 # ceph osd pool create {pool-name} {pg-num} [{pgp-num}] (2) 命令举例 [root@ceph-deploy ~]# ceph osd pool create rbd-pool 64 64 ...
OSD(Object storage Daemon,对象存储设备):每一块磁盘都是一个osd,一个主机由一个或多个osd组成。 ceph集群部署好之后,要先创建存储池才能向ceph写入数据,文件在向ceph保存之前要先进行一致性hash计算,计算后会把文件保存在某个对应的PG中,此文件一定属于某个pool的一个PG,在通过PG保存在OSD上。数据对象在写到主...
ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool create cephfs-data 64 64 查看ceph集群的状态: ceph@ceph-deploy:~/ceph-cluster$ ceph -s cluster: id: 98762d01-8474-493a-806e-fcb0dfc5fdb2 health: HEALTH_WARN 1 pool(s) do not have an application enabled ...
mypool .rgw.root default.rgw.log default.rgw.control default.rgw.meta #块设备RDB 一般用于KVM等虚拟化技术和云服务,比如Openstack和Cloudstack #deploy节点 #创建RBD ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool create myrbd1 64 64 pool 'myrbd1' created ...