可以在原先服务器上添加更多osd, 或者添加额外node。修改cluster.yaml nodes:-name:"node-1"devices:-name:"vdb"-name:"vdc"#新添加的磁盘config:storeType:bluestore#使用bluestore存储引擎可以加速存储journalSizeMB:"4096"-name:"node-2"devices:-name:"vdb"-name:"/dev/vdc"config:storeType:bluestorejournalS...
这个盘是新添加的,并没有创建GPT分区信息,手动给各个盘创建GPT header后,部署OSD正常! 三、扩展功能 记录下使用Rook部署Ceph系统的扩展功能需求。 1、如何配置分区? Rook现在不支持配置OSD的devices为分区,代码中检测配置磁盘分区这块有待改善! Operator discover检查 File: pkg/operator/ceph/cluster/osd/osd.go fun...
rook-ceph-osd-5-5d8b5bd559-57r4h 2/2 Running 0 162m rook-ceph-osd-prepare-master-cfm4b 0/1 Completed 0 163m rook-ceph-osd-prepare-node-xm6kv 0/1 Completed 0 163m rook-ceph-osd-prepare-node2-nlbzj 0/1 Completed 0 162m rook-ceph-tools-68754fc9dd-568gk 1/1 Running 0 170m...
在所有节点添加1块100GB的新磁盘:/dev/sdb,作为OSD盘,提供存储空间,添加完成后扫描磁盘,确保主机能够正常识别到: $ for host in $(ls /sys/class/scsi_host) ; do echo "- - -" > /sys/class/scsi_host/$host/scan; done # 扫描 SCSI 总线并添加 SCSI 设备 $ for scsi_device in $(ls /sys/c...
5.2 卸载osd 或者卸载集群另外一个后遗症,rook-ceph 名称空间删除了,但是 cephcluster无法删除 5.3 打开dashboard显示HEALTH_WARN警告 1.环境准备 1.1 基础环境 3台配置一致的虚拟机: 虚拟机配置:4c 8g 虚拟机操作系统:cents7 硬盘: vda:40G vdb:20G ...
修改rook的cluster.yaml配置并添加以下行,明确允许ceph pod也在主节点上运行,解决了这个问题:
Ceph 拒绝在不可用的设备上预配 OSD。为保证能成功添加osd,我刚才在每个node上新加了一块磁盘 从特定...
Ceph 对象存储设备,也称为 OSD,负责将对象存储在本地文件系统上并通过网络提供对它们的访问。这些通常与集群的一个物理磁盘相关联。Ceph 客户端直接与 OSD 交互。 要与Ceph 存储的数据交互,客户端将首先与 Ceph 监视器 (MON) 联系以获取集群映射的当前版本。集群地图包含数据存储位置以及集群拓扑。Ceph 客户端然后...
在运行的集群中添加新的OSD不到2分钟。添加RGW和MDS等服务也是如此。Rook建立在Kubernetes之上,因此节点可靠性和改进的故障容忍度成为一等特性。带有Rook后端的编排器CLI可以轻松操作部署的集群,特别是对于那些已经熟悉Ceph CLI的人来说。然而,Ceph的升级还没有自动化,Rook和Ceph版本之间存在耦合,这使得整体部署的灵活...
验证ceph-osdpod 的数量与cluster.storageNodes配置参数中指定的存储节点数量是否相同。 验证api和ceph-mgrpod 是否均已启动。 可通过从 IBM Cloud Private 目录部署需要持久存储的应用程序来执行集群清理。要获取示例,请参阅PostgreSQL 。 管理集群 安装集群后,可执行以下操作。