}此时可以直接使用默认的service访问ceph-dashboard的web页面https://ceph-01:8443/ or https://192.168.99.204:8443/ 输入账号密码登录(admin、admin123) 如果是虚拟机,用域名访问需要解析!!! 在C:\Windows\System32\drivers\etc\hosts文件里添加192.168.99.204 ceph-01自...
1、修改 ceph 配置文件把ceph.conf 配置文件里的默认副本数从 3 改成 1 。把 osd_pool_default_size = 2 加入[global]段,这样只有 2 个 osd 也能达到 active+clean 状态:md-fences md-end-block ty-contain-cm modeLoaded highlighter- Bash vim /etc/ceph/ceph.conf [global] fsid = 1ed6d2bd-52...
ceph osd pool create cephfs_metadata 32 32 ceph osd pool create cephfs_data 256 256 1. 2. 创建fs 后面会用到fs_name # ceph fs new <fs_name> <metadata> <data> ceph fs new cephfs cephfs_metadata cephfs_data 1. 2. 4.1.2. 获取集群信息 获取clusterid ceph -s # 输出如下 id: 8cf...
点击左上角的平台管理,然后选择集群管理。 点击自定义资源 CRD,然后在搜索栏中输入clusterconfiguration,点击搜索结果进入其详情页面。 点击clusterconfiguration进入资源列表,进行编辑配置文件。 开始Devops组件的环境支持 将enable:false改为enable:true,点击更新即可 执行以下命令,使用 Web kubectl 来检查安装过程: kubectl...
Cluster级别的资源,它由集群管理员或者是External Provisioner组件创建。 它描述的是持久化存储数据卷。 #2. Persistent Volume Claim (PVC) Namespace级别的资源,它由开发者或者是StatefulSet控制器(根据 VolumeClaimTemplate) 创建,另外通用临时卷(Generic ephemeral volume)也会创建其生命周期与 Pod 一致的临时存储卷。
Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack...
Cluster: 是一个被 Kubernetes 协调的高可用集群,作为 Kubernetes Cluster 的根操作对象,将多台节点(Master/Node)连接成一个工作整体,是计算、存储和网络资源的集合。 Master(主节点):下属于 Cluster,充当集群中的中央控制角色,负责管理、协调集群中的所有活动(e.g. scheduler app、维护 app 状态机、 弹性扩展 apps...
git cd rook/cluster/examples/kubernetes/ceph/ 执行yaml 文件部署 rook 系统组件: 代码语言:javascript 复制 [centos@k8s-master ceph]$ kubectl apply -f operator.yaml namespace/rook-ceph-system created customresourcedefinition.apiextensions.k8s.io/cephclusters.ceph.rook.io created customresourcedefinition....
只需要在主节点ceph1执行 创建集群 cd /etc/ceph ceph-deploy new ceph1 ceph2 ceph3 在“/etc/ceph”目录下自动生成的ceph.conf文件中配置网络mon_host、public network、cluster network vi /etc/ceph/ceph.conf 将ceph.conf中的内容修改为如下所示: ...
ceph-deploy osd create --data /dev/vdb node1 ceph-deploy osd create --data /dev/vdb node2 //注意磁盘的位置,这个版本的ceph-deploy无法使用prepare来添加osd了 10、查看ceph的状态 ceph -s cluster: id: 355a1118-c856-42e9-81bd-d5bec3c5464f ...