ceph osd tree 该命令将列出Ceph集群中所有的OSD,包括新添加的OSD。你可以检查输出中是否包含了你新添加的OSD的ID和状态信息。 如果OSD状态显示为up和in,则表示OSD已成功添加并正在正常运行。 注意事项 在执行ceph-deploy osd create命令之前,请确保Ceph集群的状态是健康的,以避免在添加OSD时出现问题。 如果在添加...
ceph-deploy osd create <节点名>:sdb ``` 这里的 `<节点名>` 是 Ceph 集群中的一个节点名,通常为 monitor 节点的主机名。执行此命令后,ceph-deploy 将自动为选定的硬盘创建 OSD,并将其添加到集群中。 ### 步骤 3:检查状态 最后,可以使用以下命令来验证 OSD 的部署状态: ``` ceph osd tree ``` 该...
ceph-deploy osd active HOST:DISK[:JOURNAL] [HOST:DISK[:JOURNAL]…] 激活上一步的OSD。实际上它会调用ceph-disk的active命令,这个时候OSD会up and in。 ceph-deploy osd create HOST:DISK[:JOURNAL] [HOST:DISK[:JOURNAL]…] 上两个命令的综合。 ceph-deploy osd list HOST:DISK[:JOURNAL] [HOST:DISK[...
ceph-deploy 2.1 以后准备和激活合并为一个 ceph-deploy osd create --data /dev/sdxxx host_ip ceph-deploy osd prepare host_ip:/dev/sdxxx 5. 激活 osd ceph-deploy 2.1 以后准备和激活合并为一个 ceph-deploy osd create --data /dev/sdxxx host_ip ceph-deploy osd activate host_ip:/dev/sdxxx ...
ceph-deploy osd create命令中: ${node}是节点的hostname。 --data选项后面是作为数据盘的设备,以Bcache的后端盘作为数据盘。 --block-db选项后面是DB分区。 --block-wal选项后面是WAL分区。 DB和WAL通常部署在NVMe SSD上以提高写入性能,如果没有配置NVMe SSD或者直接使用NVMe SSD作为数据盘,则不需要--block-...
场景一、使用ceph-deploy新增mon节点需求:产品标准部署完成时,ceph mon一般会部署在某些OSD节点上,需要将mon拆到其他节点上。 操作步骤:-> 使用ceph-deploy新建mon [root@host-name ~]#ceph-deploy mon create {host-name [host-name]...} [root@host-name ~]#ceph-deploy mon create newhostname 注意事项...
Ceph OSD操作 命令详解 (一) ceph-deploy osd create ceph134:sdb
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda, 其他盘有/dev/sdb、/dev/sdc和/dev/sdd,这几个盘都是裸磁盘,目的是使
ceph-osd软件包osd == 硬盘 ceph-mon 软件包 监控(健康检查 , 检查服务是否正常) 绘制地图(地图文件记录服务地址, 实时检查osd存储状态, 并更新osd存储地图) 1 案例1:部署ceph准备 1.1 问题 准备四台虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: ...
第一步,安装 ceph-deploy 第二步,使用 ceph-deploy 安装 ceph 组件。 第一步:在 node01(部署节点)上安装 ceph-deploy 该步骤所有命令均在部署节点上执行。 安装ceph-deploy: yum install -y python-pip pip install -U pip pip install ceph-deploy==2.0.1 ...