Ceph Deploy是一个基于命令行的工具,旨在简化Ceph集群的部署和管理。 首先,我们需要连接到Ceph管理节点,并使用管理员权限执行删除OSD的命令。在命令行中,运行以下命令: ``` ceph-deploy osd rm {管理节点}:/var/lib/ceph/osd/ceph-{osd号码} ``` 请注意,{管理节点}是您用于管理Ceph集群的节点的主机名或IP地...
分别查看下ceph-node1、ceph-node2、ceph-node3三个节点的osd服务情况,发现已经在启动中。 [cephuser@ceph-node1 ~]$ sudo systemctl status ceph-osd@0.service #启动是start、重启是restart [cephuser@ceph-node1 ~]$ sudo ps -ef|grep ceph|grep "cluster" ceph 28749 1 0 11:44 ? 00:00:00 /u...
# 创建部署目录mkdir /root/cephclustercd/root/cephcluster/# 拉取源码git clone https://github.com/ceph/ceph-deploy.gitcdceph-deploy# 删除osd.py代码第375行,否则查询节点磁盘列表时会报错vim ceph_deploy/osd.py# 被删除的行line=line.decode('utf-8')# 安装python3 setup.py install 然后,使用ceph-...
ceph-deploy disk list osd1 osd2 osd3 使用zap选项删除所有osd节点上的分区 ceph-deploy disk zap osd1:/dev/vdb osd2:/dev/vdb osd3:/dev/vdb 准备OSD ceph-deploy osd prepare osd1:/dev/vdb osd2:/dev/vdb osd3:/dev/vdb 激活OSD ceph-deploy osd activate osd1:/dev/vdb1 osd2:/dev/vdb1 ...
ceph osd purge {osd-id} --yes-i-really-mean-it 如果类似如下的 osd 配置信息存在于 ceph.conf 中,需要在 osd 移除后将其删除[osd.1] host = {hostname} 不过,对应 Luminous 之前的版本,删除的 osd 方法不太一样:# 删除 crush 运行图相关数据 ceph osd crush remove {osd-name} ceph auth del ...
6. 部署Ceph OSD:使用ceph-deploy工具在每个主机上部署Ceph OSD(对象存储守护进程)。运行以下命令: ``` $ ceph-deploy osd create --data /dev/<磁盘设备> <所有主机名称> ``` 该命令将在每个主机上创建一个OSD,并将其与相应的磁盘设备进行绑定。
使用ceph-deploy工具部署时出现错误:Unable to find /var/lib/ceph/bootstrap-osd/ceph.keyring runsisiAT hust http://www.cppblog.com/runsisi 该错误在执行命令:ceph-deploy mon create-initial时出现,说明该monitor节点曾经部署过ceph环境,该问题的解决方法很简单,在执行该命令之前删除该monitor节点/etc/ceph/...
通过Ceph-deploy,管理员可以方便地创建、修改甚至删除这些存储池。创建一个新存储池通常只需执行一条简单的命令,如ceph osd pool create <pool-name> <pg-num> <pgp-num>。这里,<pool-name>是你希望赋予该存储池的名字,而<pg-num>和<pgp-num>分别代表放置组的数量及其副本数量。合理的配置不仅能确保数据的...
[cephadm@cephadm ceph-cluster]$ vim ceph.conf ##添加可以删除pool参数[global]mon_allow_pool_delete=true[cephadm@cephadm ceph-cluster]$ ceph-deploy--overwrite-conf admin cephadm mon01 mon02 mon03 stor04 #下发修改后ceph文件 重启4个osd节点的mon mgr 服务 systemctl list-units--type=service|...
检查集群中是否已经存在同名的OSD,如果是,请先删除旧的OSD再进行安装。 尝试手动创建OSD来诊断问题。使用ceph-volume lvm create --bluestore --data /dev/sda --block.wal /dev/nvme3n1p1 --block.db /dev/nvme0n1p2命令来创建一个单独的OSD,并观察是否会出现类似错误。