ceph -s 会执行get_cluster_status函数, 在函数的最后会调用打印 mgrstatmon()->print_summary函数 void Monitor::get_cluster_status(stringstream &ss, Formatter *f) { if (f) f->open_object_section("status"); if (f) { f->dump_stream("fsid") << monmap->get_fsid(); get_health_status(...
1、ceph -s :该命令用于输出ceph集群系统状态信息 提示:ceph -s主要输出有三类信息,一类是集群相关信息,比如集群id,健康状态;第二类是服务类相关信息,比如集群运行了几个mon节点,几个mgr节点,几个mds,osd和rgw;这些服务都处于什么样的状态等等;我们把这些信息称为集群运行状况,它可以让我们一目了然的了解到集群...
查看状态命令: 查看ceph集群状态:ceph -s 查看mon状态:ceph mon stat 查看msd状态:ceph msd stat 查看osd状态:ceph osd stat 查看osd目录树(可以查看每个osd挂在哪台机,是否已启动):ceph osd tree 启动ceph进程命令: 需要在对应的节点进行启动(如果对应节点没有该服务,会进行提示) 启动mon进程:service ceph sta...
API呈现系统能力 存储资源层 传统软硬件一体的存储资源 基于软件的/标准硬件的存储 SDS与传统存储对比 传统的存储系统设计 自低向上 首先把很多磁盘组Disk Group配RAID 在RAID上配存储池 再存储池上配LUN 把LUN映射为上层业务主机来用 即先创建500G的LUN 映射给主机使用 SDS存储系统设计 自顶向下 首先会做一个大...
2.3 PG(s) Ceph将存储池分片处理成在集群中均匀且伪随机分布的PG。CRUSH算法将每个对象分配到一个指定的PG中,并且将每个PG分配到对应的Acting Set集合中—也就是在Ceph客户端和存储对象副本的OSD之间创建一个间接层。如果Ceph客户端直接就能知道对象存放到具体的哪个OSD中的话,那么Ceph客户端和Ceph OSD之间耦合性就...
check_for_latest_map = _calc_target(&op->target, &op->last_force_resend); //---a int r = _get_session(op->target.osd, &s, lc); //---b _session_op_assign(s, op); //---c _send_op(op, m); //---d } ---a. _calc_target,通过计算当前object的保存的osd,然后将主osd...
ceph学习笔记-基本概念,存储的基本发展企业中使用存储的按照其功能,使用场景,大体可以分为4个阶段:DAS直连存储NAS网络附加存储SAN存储区域网络ObjectStorage对象存储以下是存储基本概念汇总在企业中不同的场景使用的存储,使用表现形式为三种,磁盘-块存储,挂载目录-文
(1)统一性( unified ):意味着可以同时提供对象存储、块存储和文件系统存储三种接口功能。 (2)分布式( distributed ):意味着其内部节点架构是以分布式集群算法为依托的。 接下来,我们从其架构原理以及读写原理上来分析其如何支撑定义当中所提到的各个特性。
pollers 派生类的poll轮询 事件的处理 每个worker的线程负责处理EventCenter的底层监听事件集合,因此对EventCenter事件的处理主要在每个worker的线程函数,每个事件的处理逻辑如下: 处理fd类事件 通过底层epoll_wait取得可以处理的事件集合,然后再根据注册的读写事件分别调用对应的cb(不会主动将已经注册的事件去除掉,需要上层...
传统的文件存储系统中,文件是通过文件目录进行寻址的,庞大文件目录或深层次目录结构,均会影响文件搜索的效率,Ceph底层并不存在块和文件的管理,而是管理对象并且在对象之上支持基于块和文件的存储,对象的寻址通过唯一的标识符,并存储在扁平的寻址空间中,客户端使用CRUSH算法得到一个存储对象的存储位置,从根本上解决海量文...