在一个主机上运行的一个守护进程,用于维护集群状态的映射(maintains maps of the cluster state),比如ceph集群中有多少存储池、每个存储池有多少PG以及存储池和PG的映射关系等,monitor map,manager map,the OSD map,the MDS map,and the CRUSH map,这些映射是ceph守护程序相互协调所需的关键集群状态,此外监视器还...
错误原因:节点之间的网络连接问题可能导致ceph-deploy无法正确部署monitors。 解决方法:检查并确保所有节点之间的网络连接正常,并且防火墙或安全组设置没有阻止Ceph集群所需的端口。 磁盘空间不足: 错误原因:如果部署节点的磁盘空间不足,也可能导致无法创建monitors。 解决方法:检查部署节点的磁盘空间,确保有足够的空间用于...
[cephuser@ceph-admin ~]$ sudo yum update -y && sudo yum install ceph-deploy -y 创建cluster目录 [cephuser@ceph-admin ~]$ mkdir cluster [cephuser@ceph-admin ~]$ cd cluster/ 创建集群(后面填写monit节点的主机名,这里monit节点和管理节点是同一台机器,即ceph-admin) [cephuser@ceph-admin cluster...
10.0.0.131#导入keywget -q -O-'https://download.ceph.com/keys/release.asc'| sudo apt-key add -#添加apt源echodeb https://download.ceph.com/debian-nautilus/ $(lsb_release -sc) main | sudotee/etc/apt/sources.list.d/ceph.list#更新源sudo apt update#用脚本实现批量创建用户cat> create_ceph...
首先,创建部署目录cephcluster,拉取ceph-deploy源代码并安装; # 创建部署目录mkdir /root/cephclustercd/root/cephcluster/# 拉取源码git clone https://github.com/ceph/ceph-deploy.gitcdceph-deploy# 删除osd.py代码第375行,否则查询节点磁盘列表时会报错vim ceph_deploy/osd.py# 被删除的行line=line.decode...
Ceph的LTS版本是Nautilus,它在2019年发布。 Ceph的主要组件 Ceph 是一个分布式存储系统,由多个组件构成,主要包括以下几个组件: Monitor: 一个Ceph集群需要多个Monitor组成的小集群,用来保存OSD的元数据。 OSD OSD 全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD...
yum install -y ceph-deploy ntp 9、安装ntp (各节点) yum install -y ntp systemctl start ntpd //开启NTP 服务 systemctl enable ntpd //设置NTP开机启动 查看ntp状态:ntpq -p 注意:如果ntp时钟不同步,后面ceph服务起不来! 9、创建部署 CEPH 的用户,并配置其无密码sudo权限(此处创建普通用户:admin)。(...
ceph-deployadmin[admin-node][ceph-node…] ceph-deploypurgedata[ceph-node][ceph-node…] ceph-deployforgetkeys Description¶ ceph-deployis a tool which allows easy and quick deployment of a Ceph cluster without involving complex and detailed manual configuration. It uses ssh to gain access to ...
ceph-deployis a way to deploy Ceph relying on just SSH access to the servers,sudo, and some Python. It runs fully on your workstation, requiring no servers, databases, or anything like that. If you set up and tear down Ceph clusters a lot, and want minimal extra bureaucracy, this is...
复制ssh密钥到ceph-node1、ceph-node2、ceph-node3节点 sudo ssh-copy-idceph@192.168.2.121sudo ssh-copy-idceph@192.168.2.122sudo ssh-copy-idceph@192.168.2.123 开始部署集群 在ceph-deploy节点创建目录 su - ceph [ceph@ceph-deploy ~]$mkdir ceph-cluster-deploy ...