ceph osd crush add{id-or-name}{weight}[{bucket-type}={bucket-name}...] 比如: 代码语言:javascript 复制 ceph osd crush add210.08800pool=ssd_root rack=ssd_rack01 host=ssd_ceph4 你也可以反编译 CRUSH Map、把 OSD 加入设备列表、以 bucket 的形式加入主机(如果它没在 CRUSH Map 里)、以条目形式...
ceph osd crush add osd.6 0.01939 root=default host=node1 将新增osd添加至crush中 ceph-osd -i 6 启动 1、创建OSD-ID 主节点node1执行 这里的 create 后可以跟ID号,不过还是让集群自己给出ID号最好,避免跳过一些ID node1:/etc # ceph osd create 7 node1:/etc # ceph osd stat 8 osds: 7 up,...
OSD 所在階層或樹狀結構的根儲存區名稱。 類型 鍵值組。 必要 是 root=default、root=replicated_rule等範例 bucket-type 說明 一或多個名稱/值配對,其中名稱是儲存區類型,值是儲存區的名稱。 您可以在 Crush 階層中指定 OSD 的 Crush 位置。 類型 鍵值組。 必要 否 範例 datacenter=dc1 room=room1 row=foo ...
ceph auth add osd.{osd-num} osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-{osd-num}/keyring Add the OSD to the CRUSH map so that the OSD can begin receiving data. The ceph osd crush add command allows you to add OSDs to the CRUSH hierarchy wherever you wish. If...
ceph auth add osd.{osd-num}osd'allow *'mon'allow rwx'-i/var/lib/ceph/osd/ceph-{osd-num}/keyring 把新OSD 加入 CRUSH Map 中,以便它可以开始接收数据。用ceph osd crush add命令把 OSD 加入 CRUSH 分级结构的合适位置。如果你指定了不止一个 bucket,此命令会把它加入你所指定的 bucket 中最具体...
ceph osd create ``` 该命令将返回一个新的OSD编号。将该编号记录下来,它将在后续的步骤中使用。 在创建OSD托管器后,我们需要将OSD节点添加到集群中。我们可以使用以下命令将OSD节点添加到集群中: ``` ceph osd crush add osd.<初始重量> <位置>
ceph auth add osd.{osd-num} osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-{osd-num}/keyring 1. 把新OSD 加入 CRUSH Map 中,以便它可以开始接收数据。用ceph osd crush add命令把 OSD 加入 CRUSH 分级结构的合适位置。如果你指定了不止一个 bucket,此命令会把它加入你所指定的 buc...
新建osd tree 添加root类型的bucket: ceph osd crush add-bucket default root 新建一个类型为root名叫default的bucket(ceph将机房、主机、磁盘这些都统称为bucket)。 把现有的主机添加到default下,指令为: ceph osd crush add-bucket host名称 host 把所以host类型的bucket添加到default下,指令为: ...
ceph auth add osd.{osd-num}osd'allow *'mon'allow rwx'-i/var/lib/ceph/osd/ceph-{osd-num}/keyring 6.把新 OSD 加入 CRUSH Map 中,以便它可以开始接收数据。用 ceph osd crush add 命令把 OSD 加入 CRUSH 分级结构的合适位置。如果你指定了不止一个 bucket,此命令会把它加入你所指定的 bucket 中...
将新的节点加入crushmap ceph osd crush add-bucket osd2 host 将该接点放到default根下 ceph osd crush move osd2 root=default osd加入crushmap ceph osd crush add osd.8 0.00980 host=osd2 这里给osd.8 的权重是0.00980,该值和集群中其他osd保持已知,权重不一致可能会导致pg的状态一直处于unclean ...