如果Device Class填错了,先删掉OSD的类别,然后重加上 ceph osd crush rm-device-class osd.0 ceph osd crush set-device-class ssd osd.0 2.创建class rule ceph osd crush rule create-replicated ssd_rule default host ssd #创建SSD rule
按操作顺序分两个步骤:从集群中删除故障ceph和从集群中删除物理节点。 ü 从集群中删除故障ceph 1. 登录集群任意物理正常节点系统,执行如下命令查看ceph osd状态: 代码语言:javascript 代码运行次数:0 运行 AI代码解释 root@pve48:~# ceph osd treeIDCLASSWEIGHTTYPENAMESTATUSREWEIGHTPRI-AFF-118.00357rootdefault-34....
root@proxmox232:~# pveceph createosd/dev/sdb root@proxmox233:~# pveceph createosd/dev/sdb #创建集群存储资源池ceph osd pool create [资源池名称] 128 128 代码语言:javascript 代码运行次数:0 运行 AI代码解释 root@proxmox231:~# ceph osd pool create pvepool128128pool'pvepool'created #复制存储ID...
这几天centreon监控频频报警,提示ceph pg 错误,用 ceph health detail 确定不一致的pgs,然后用指令 ceph pg repair pg_num 进行修复,通过查看系统日志,有IO错误,修复一次,能管半天,提醒决策人买新硬盘换上,不理睬,今天终于挂掉了,虽然不影响业务,但资源总体利用率超过70%,一旦节点挂掉,虚拟机连漂移的机会都没有...
九、一些常用的Ceph/OSD命令 1)常见命令查看Ceph/OSD状态 root@pve-node1:~# ceph df root@pve-node1:~# ceph osd df root@pve-node1:~# ceph status root@pve-node1:~# ceph osd stat root@pve-node1:~# ceph osd tree 2)常见命令lsblk查看节点所有块设备 ...
把所有规划使用的数据盘配置成ceph的osd 为了集群性能好一下,可以使用ssd,nvme硬盘做db数据盘和wal数据盘,大小和比例根据自己的机械盘大小,按照官网推荐比例配置上就行。 根据个人需求 也可以把硬盘加密勾选上 没特殊情况 直接创建就可以了 都加完基本上就是这个样子 ...
八、OSD磁盘故障排查案例 第一步:Ceph的监控界面发现OSD掉线,但是并没有产生告警 本项目在客户现场稳定运行了半年,基本上没有出现过故障,这次去客户现场巡查,在Ceph的WEB UI监控界面中,发现了Ceph有一个OSD磁盘掉线了,如图76所示。 图76. OSD磁盘掉线
1.为每个节点安装ceph 每个节点进入命令行,然后后执行pveceph install 就可以了。 最后提示成功即可 2.为每个节点添加osd磁盘 命令行输入 fdisk -l,查看所有盘符, pveceph osd create /dev/sd[X]---X对应的盘符 例如pveceph osd create /dev/sdb为将sdb挂载成osd盘。 将各个节点osd盘创建好。 如果...
在线更换Proxmox VE超融合集群Ceph OSD磁盘,因为资源紧张的原因,担心一旦关机,虚拟机因为没有空闲的资源而被冻结,以致于不能漂移,导致部分服务停止,只好让机房帮忙热插拔。幸运的是,插上去能够被系统所识别(/dev/sdf就是新插入的硬盘)。开始对新加入磁盘的服务器做
大半夜的Proxmox VE 上的Ceph OSD磁盘牺牲了, 这几天centreon监控频频报警,提示cephpg错误,用cephhealthdetail确定不一致的pgs,然后用指令cephpgrepairpg_num进行修复,通过查看系统日志,有IO错误,修复一次,能管半天,提醒决策人买新硬盘换上,不理睬,今天终于