Ceph文件系统

文章插图
不同于传统文件系统的地方是 , CephFS MDS在设计的初衷之一即高度可扩展的能力 , 其实现机制中 , 数据由客户端以分布式方式通过多路OSD直接存储于RADOS系统 , 而元数据则由MDS组织管理后仍然存储于RADOS系统之上; MDS仅是实现了分布式文件系统的控制平面 , 数据和元数据的存取依然由RADOS负责;CephFS依赖于独立运行的守护进程ceph-mds向客户端提供服务;
Ceph块设备

文章插图
存储领域中 , “块(block)”是进行数据存取的主要形式 , 块设备也于是成为了主流的设备形式 , 因此 , RBD虚拟块设备也就成了Ceph之上广为人知及非常受欢迎的访问接口;RBD的服务接口无须依赖于特定的守护进程 , 只要客户端主机有对应内核模块librbd , 就可以通过ceph RBD 接口使用;
Ceph对象网关

文章插图
Ceph对象网关是一个建立在librados之上的对象存储接口为应用程序提供的Ceph存储集群的RESTful网关 。Ceph对象存储支持两个接口s3和Swift;Ceph对象存储使用Ceph对象网关守护进程(radosgw) , 它是一个HTTP服务器 , 用于与Ceph存储集群交互;RGW依赖于在RADOS集群基础上独立运行的守护进程(ceph-radosgw)基于http或https协议提供相关的API服务 , 不过 , 通常仅在需要以REST对象形式存取数据时才部署RGW;
管理节点(admin host)

文章插图
Ceph的常用管理接口是一组命令行工具程序 , 例如rados、ceph、rbd等命令 , 管理员可以从某个特定的MON节点执行管理操作 , 但也有人更倾向于使用专用的管理节点;事实上 , 专用的管理节点有助于在Ceph相关的程序升级或硬件维护期间为管理员提供一个完整的、独立的并隔离于存储集群之外的操作环境 , 从而避免因重启或意外中断而导致维护操作异常中断;
存储池、PG(Placement Group)和OSD(Object Store Device)之间的关系

文章插图
提示:存储在Ceph存储系统之上的数据 , 都会先由Ceph将对应数据切分等额大小的对象数据 , 然后将这些数据存储到对应的存储池中;存储池主要作用是向外界展示集群的逻辑分区;对于每个存储池 , 我们可以定义一组规则 , 比如每个对象数据需要有多少个副本存在;PG是Placement Group的缩写 , 归置组;它是一个虚拟的概念 , 主要作用是用于将对象数据映射到osd上而存在的 , 对象数据具体通过那个pg存放在那个osd上 , 这个是根据ceph的crush算法动态映射的;我们可以理解为根据存储池中PG的数量 , 结合一致性hash将对象数据动态映射至PG上 , 然后PG根据osd数量结合一致性hash动态映射到不同的磁盘上;我们在创建存储池的时候就必须指定一定数量的PG;如上图所示 , 我们将数据存储到存储池B中 , 那么对应数据就会根据存储池B中的规则进行存储 , 即3个副本;在存储池B中只有2个归置组 , 两个归置组分别对应了不同的OSD;如果将数据存储到PG3上 , 那么对应数据就会在osd2\6\7分别存储一份以做备份;如果将数据存储到PG4上 , 这对应数据就会被分发到osd3\4\9上进行存储;
经验总结扩展阅读
- 小米手机如何修改手机系统背景
- linux双系统启动
- 适合生产制造企业用的ERP系统有哪些?
- 制造业数字化转型,本土云ERP系统如何卡位?
- 手机系统崩溃是怎么回事?
- MES系统和ERP系统的区别是什么?
- MES系统与ERP系统信息集成有哪些原则?
- 企业MES系统与ERP信息集成要素有哪些?
- 关于HM NISEDIT在新版系统下编译并运行提示权限不足问题的解决方案
- 蒙泰彩色电子出版系统怎么用