使用ceph-deploy工具新添加一个OSD的详细步骤如下: 1. 登录到Ceph管理节点 首先,你需要登录到Ceph集群的管理节点,该节点上应该已经安装了ceph-deploy工具,并具备对Ceph集群的完全访问权限。 2. 确保ceph-deploy工具已经安装并配置好 在管理节点上,确保ceph-deploy工具已经安装。如果未安装,你可以通过包管理器(如yum、...
1. Install Ceph Deploy: Start by installing the Ceph Deploy tool on a machine that has network access to all the servers in your Ceph cluster. This machine will serve as the deployment host. 2. Prepare the OSD host: On the server you want to add as an OSD, ensure that the hostname ...
(1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph-deploy disk zap rab1 /dev/sbd(或者)ceph-deploy disk zap rab1:/dev/vdb1 (3)准备Object Storage Daemon: ceph-deploy osd prepare rab1:/var/lib/ceph...
添加OSD ceph-deploy disk zap ceph2:/dev/vdb ceph3:/dev/vdb ceph-deploy osd prepare ceph2:/dev/vdb ceph3:/dev/vdb ★ 注意:[prepare 命令只准备 OSD 。在大多数操作系统中,硬盘分区创建后,不用 activate 命令也会自动执行 activate 阶段(通过 Ceph 的 udev 规则)。] 摘自: http://docs.ceph.org...
接下来我们需要登录到 ceph-deploy 机器上通过 ceph-deploy 程序添加 OSD (登陆后记得切换成 ceph-deploy 的专用用户). 通过ceph-deploy osd create --data {target-device} {target-host} 命令即可新增 OSD. [root@storage01-ib ceph01.lobj.eth6.org]# su ceph-deploy-user ...
还可以通过 ceph-deploy 工具很方便的增加 OSD。 1.登入 ceph-deploy 工具所在的 Ceph admin 节点,进入工作目录。 ssh{ceph-deploy-node} cd/path/ceph-deploy-work-path 2.列举磁盘。 执行下列命令列举一节点上的磁盘: ceph-deploy disk list{node-name[node-name]...} ...
在OSD节点上,可以使用Ceph-deploy工具来创建新的OSD。首先,需要在OSD节点上准备空闲磁盘并对其进行分区和格式化。然后,使用Ceph-deploy工具在OSD节点上创建新的OSD,并将其添加到Ceph集群中。在添加OSD的过程中,需要指定OSD节点的地址和认证信息,确保OSD节点能够正常地与Ceph集群通信。
个人理解:其实这两种扩容方式大体上都是以增加OSD为目的的,只是如果原本的服务器没有多余的硬盘位放置新硬盘,那么就只能选择新增服务器的方式进行集群扩容。 下面就根据这两种扩容情况进行一系列测试及讲解! 新增服务器实现扩容 一、服务器准备 在集群状态OK的情况下,进行集群扩容。
添加OSD NVMe盘划分为12个60GB分区、12个180GB分区,分别对应WAL分区、DB分区。 创建一个partition.sh脚本(若不分区忽略此步)。 1 vi partition.sh 添加如下内容(以单个Nvme SDD盘分12个区为例,若不分区忽略此步)。#!/bin/bash parted /dev/nvme0n1 mklabel gpt for j
ceph手动添加osd的过程,其实就是ceph-deploy的过程自己手动执行了一遍 # ceph version ceph version12.2.7(3ec878d1e53e1aeb47a9f619c49d9e7c0aa384d5) luminous (stable) AI代码助手复制代码 2、磁盘分区 bluestore存储方式,data是以前的journal(vdc1),block(vdc2)才是实际数据存储 ...