ceph-deploy osd create <节点名>:sdb ``` 这里的 `<节点名>` 是 Ceph 集群中的一个节点名,通常为 monitor 节点的主机名。执行此命令后,ceph-deploy 将自动为选定的硬盘创建 OSD,并将其添加到集群中。 ### 步骤 3:检查状态 最后,可以使用以下命令来验证 OSD 的部署状态: ``` ceph osd tree ``` 该...
检查集群中是否已经存在同名的OSD,如果是,请先删除旧的OSD再进行安装。 尝试手动创建OSD来诊断问题。使用ceph-volume lvm create --bluestore --data /dev/sda --block.wal /dev/nvme3n1p1 --block.db /dev/nvme0n1p2命令来创建一个单独的OSD,并观察是否会出现类似错误。 检查日志文件(通常在/var/log/ceph/...
ceph-deploy osd create --data /dev/sdc node03 ceph-deploy osd create --data /dev/sdb node04 ceph-deploy osd create --data /dev/sdc node04 1. 2. 3. 4. 5. 通过ceph osd tree查看osd的列表情况,可以清晰看到osd在对应node节点,以及当前状态: [root@node01 ~]# ceph osd tree ID CLASS WE...
2、修改/etc/ceph/ceph.conf 文件 例如:osd pool default size = 2 public network = {ip-address}/{netmask} 其他详细配置待续 3、在所有节点安装 ceph 软件包 ceph-deploy install {ceph-node}[{ceph-node} ...] 在此过程中如果出现安装源找不到的情况,根据环境情况修改 ceph.repo 文件中的源路 径,...
Ceph把客户端的数据以对象的形式存储到了存储池里。利用CRUSH算法,Ceph可以计算出安置组所包含的对象,并能进一步计算出Ceph OSD集合所存储的安置组。CRUSH算法能够使Ceph存储集群拥有动态改变大小、再平衡和数据恢复的能力。 二:Ceph 特点 Object:有原生的API,而且也兼容Swift和S3的API ...
ceph-deploy mon create [HOST] [HOST…] 显示的部署monitor,如果create后面不跟参数,则默认是mon initial members里的主机。 ceph-deploy mon add [HOST] 将一个monitor加入到集群之中。 ceph-deploy mon destroy [HOST] 在主机上完全的移除monitor,它会停止了ceph-mon服务,并且检查是否真的停止了,创建一个归档...
sudo ceph-deploy disk zap {osd-server-name} {disk-name} eg:sudo ceph-deploy disk zap ceph-node2 /dev/sdb 1. 2. 3. 4. 5. 如果是干净的磁盘,可忽略上边清除数据的操作,直接添加OSD即可 (我这里是新添加的/dev/sdb磁盘) [ceph-admin@ceph-node1 cluster]$ ceph-deploy osd create --data /...
192.168.10.220 ceph-admin(ceph-deploy) mds1、mon1(也可以将monit节点另放一台机器)192.168.10.239 ceph-node1 osd1 192.168.10.212 ceph-node2 osd2 192.168.10.213 ceph-node3 osd3 ---每个节点修改主机名...
Ceph把客户端的数据以对象的形式存储到了存储池里。利用CRUSH算法,Ceph可以计算出安置组所包含的对象,并能进一步计算出Ceph OSD集合所存储的安置组。CRUSH算法能够使Ceph存储集群拥有动态改变大小、再平衡和数据恢复的能力。 二:Ceph 特点 Object:有原生的API,而且也兼容Swift和S3的API ...