zap 原始设备: 语法 ceph-volume lvm zap DEVICE_PATH --destroy 示例 [ceph: root@host01 /]# ceph-volume lvm zap /dev/sdc --destroy 清除具有 OSD ID 的多个设备: 语法 ceph-volume lvm zap --destroy --osd-id OSD_ID 示例 [ceph: root@host01 /]# ceph-volume ...
要使用 LVM 插件,请将lvm作为子命令添加到 cephadm shell 中的ceph-volume命令: [ceph: root@host01 /]# ceph-volume lvm 以下是lvm子命令: prepare-格式化 LVM 设备并将其与 OSD 关联。 activate-发现并安装与 OSD 标识关联的 LVM 设备,然后启动 Ceph OSD。 list-列出与 Ceph 关联的逻辑卷和设备。 batch...
zap子命令从逻辑卷或分区中除去所有数据和文件系统。 可以使用zap子命令来对 Ceph OSD 用于复用的逻辑卷,分区或原始设备进行 zap。 将除去给定逻辑卷或分区上存在的任何文件系统,并清除所有数据。 (可选) 可以使用--destroy标志来完全除去逻辑卷,分区或物理设备。
do ssh $i ceph-volume lvm zap /dev/sdc ssh $i ceph-volume lvm zap /dev/sdd done 3) 创建OSD存储空间 [root@node1 ceph-cluster]# ceph-deploy osd create --data /dev/sdc --journal /dev/sdb1 --data /dev/sdd --journal /dev/sdb2 node1 [root@node1 ceph-cluster]# ceph-deploy osd...
1、格式化磁盘 ceph-volume lvm zap /dev/sd<id> 2、进入到ceph-deploy执行目录/my-cluster,添加OSD # ceph-deploy osd create --data /dev/sd<id> $hostname 1. 2. 3. 4. 删除OSD 1、调整osd的crush weight为 0 ceph osd crush reweight osd.<ID> 0.0 2、将osd进程stop systemctl stop ceph-...
[cephadm@ceph-admin ceph-cluster]$ ceph-deploy disk zap ceph-mon01 /dev/sdb /dev/sdc 提示:擦净磁盘我们需要在后面接对应主机和磁盘;若设备上此前有数据,则可能需要在相应节点上以root用户使用“ceph-volume lvm zap --destroy {DEVICE}”命令进行; ...
ceph-volume lvm zap /dev/sd[X]---X对应的盘符 如果还是报错,需要 先vgdisplay ,查看所有vg卷组,把非系统卷组全部移除, 命令如下 用vgremove移除对应的卷组 同理移除全部需要移除的vg后,需要pvdisplay查看所有被占用的物理卷 同样pvremove移除对应的物理卷 移除之后,reboot重启节点。 3.分别把对应监控...
ceph-volume lvm zap /dev/sd[X]---X对应的盘符 如果还是报错,需要 先vgdisplay ,查看所有vg卷组,把非系统卷组全部移除, 命令如下 用vgremove移除对应的卷组 同理移除全部需要移除的vg后,需要pvdisplay查看所有被占用的物理卷 同样pvremove移除对应的物理卷 移除...
ceph-volume lvm zap /dev/sdb --destroy 在Ceph-Node 1上创建脚本create_osd.sh,将每台服务器上的12块Bcache盘作为OSD的数据盘。 cd /etc/cephvi /etc/ceph/create_osd.sh 添加以下内容: #!/bin/bash for node in ceph1 ceph2 ceph3 do j=7 k=1 for i in `ssh ${node} "ls /sys/block |...
# ceph-volume lvm zap/dev/sdb # ceph-volume lvm create --data/dev/sdb 启动node02节点osd服务 # systemctl start ceph-osd@1.service # systemctl enable ceph-osd@1.service # systemctl status ceph-osd@1.service 注:第一个osd为ceph-osd@0.service,第二个osd为ceph-osd@1.service,依此类推 ...