Gluster vs Ceph:开源存储领域的正面较量

https://www.oschina.net/news/49048/gluster-vs-ceph

引言:开源存储软件Ceph和Gluster能够提供相似的特性并且能够为用户节省不小的开支。那么谁更快?谁又更易用呢?

开源的Ceph及Red Hat旗下的Gluster都是成熟的技术,但兴许不久之后就将经历某种重生了。随着存储产业开始向扩展性存储及云的方向发展,将不断会有基于这些低价的软件技术的产品推向市场,而对这些自集成解决方案的补充在近一年来不断涌现。

Ceph与Gluster在原理上有着本质上的不同。Ceph基于一个名为RADOS的对象存储系统,使用一系列API将数据以块(block)、 文件(file)和对象(object)的形式展现。Ceph存储系统的拓扑结构围绕着副本与信息分布,这使得该系统能够有效保障数据的完整性。

而Red Hat将Gluster描述为可扩展的网络存储设备(Scale-out NAS)和对象存储系统。它使用一个哈希算法来计算数据在存储池中的存放位置,这点跟Ceph很类似。并且这是保证扩展性的关键。在Gluster中,所 有的存储服务器使用哈希算法完成对特定数据实体的定位。于是数据可以很容易的复制,并且没有中心元数据单点这样一个容易造成访问瓶颈的部分,这种单点在早 期Hadoop上出现,对性能和可靠性造成较大影响。

Ceph与Gluster有着相似的数据分布能力。Ceph像大多数对象存储软件那样,通过更大的节点集进行数据条带化处理。这样的好处是能够防止数据访问的瓶颈效应。

因为默认的Ceph块比较小(仅为64KB),所以数据流被切分为许多随机的IO操作。而磁盘在随机IO的时候一般能够达到最大值(对HDD而言最 多达到150次每秒),并且这个数值不会随传输的数据大小改变多少。所以对于Ceph而言,设置更大的IO块意味着能够一次聚合传输更多的数据。

Gluster默认的块大小是128KB。这是Red Hat声称在一项基准测试中Gluster的性能是Ceph的三倍的主要原因。当然,测试者用了一些小技巧,所以测试结果是参数设置及实验调优的结果。 Ceph能够将块大小从64KB设置为256KB甚至1MB,这么做也能使Ceph的性能得到不小的提升。

基准测试的门道相当复杂。块大小的设置能够左右Ceph与Gluster的性能对比。想要得到公平的比较结果,就必须依赖第三方不带任何偏见的进行测试。显然,Red Hat的报告有着显著的误导性。

回头再来看两者的扩展性能。两个系统都避免了单节点的存在,因此可以近乎线性的进行扩展。重复数据删除不会对性能造成太大的差异。两者的服务器端的压缩技术减轻了磁盘利用及网络负载双方面的压力,并且降低了每个文件的磁盘IO次数。

Ceph file journals技术能够向SSD设备中写从而使得性能大幅度提升。并且支持缓存(Caching)或分层(Tiering),配置方式可简可繁。

Ceph在恢复损坏的磁盘时有优势。因为,Ceph相比Gluster将数据放置在一个更大的节点集中,有更多的设备(磁盘驱动器)能够同时输入副本数据。这将大大缩短数据重建的时间,且不会显著增加某个磁盘设备的负载。在大规模的集群中,这是一个显著的优势。

两个系统的安装和运维都相当简单,但如果规划要做长期的部署则必须花费一些时间认真准备。存储管理员会发现Inktank为Ceph提供了一些更为 精细的操作,因为Ceph对文件系统、块访问以及远程复制等操作都是采用内建函数的方式,而不像Gluster那样采用插件的方式。这给了Ceph很大的 优势,也是为什么Ceph能够在安装上领先Gluster的原因。这能够很轻松的解决块迁移的问题并且提供单个存储池的管理。

诚然,两者在合理的代价下为用户提供了较强的可选性。两者的源代码都是开源且免费的,Inktank和Red Hat公司则提供支持服务及管理工具包。相比传统的存储,随着通用型硬件及存储设备(磁盘)价格的不断下降,Ceph和Gluster都体现出越来越大的价值。

因为很好的功能、不错的性能以及在价格方面的优势,Ceph以及Gluster在昂贵的专用存储之外提供了一种可行的解决方案,可以预见它们将会得到市场的青睐,并且有可能撼动由EMC或NetApp所把持的存储市场。

原文地址:https://www.cnblogs.com/dhcn/p/10535361.html

时间: 2024-10-09 23:14:41

Gluster vs Ceph:开源存储领域的正面较量的相关文章

开源存储之ceph

小记,曾经的很多单骑,赵子龙,杨再兴,..............为大将者所应用的胆识和气度,值得敬仰! 名师出高徒啊, 周侗北宋末年之武术大师,相传为三国姜维的传人(真实性ruiy哥就不考察了哈),后拜少林派武师谭正芳为师,得少林武术真传;大徒弟卢俊义二徒弟林冲三徒弟史文恭(虽是,叛徒坏人,但实力也是很可观的)义子岳飞不记名徒弟武松以上非个人观点,看官自辨; Advanced Package Tool (APT) For Debian and Ubuntu Red Hat Package Ma

开源存储

开源存储产品提供商RHEL(gluster,ceph)提供对象.块和文件三种存储; Ceph已成为OpenStack上最通用的存储之一; swift,作为对象存储,稳定性还是没啥问题.sina那边使用,对他的评价很高.淘宝选择了sheepdog 通常而言,开源项目的来源有三:一是学校里的大牛作的课题,论文发够然后开源:二是企业里的大牛搞的产品,机缘巧合于是开源:三是某些大牛突然显灵,然后一票人跟着一起开源; 开源存储,布布扣,bubuko.com

使用ceph-deploy安装L版开源存储

使用ceph-deploy安装L版开源存储 配置时间服务器.做本地免密.设置防火墙的策略.配置selinux(略) 配置yum源(开源ceph安装需要依赖于base.epel和ceph源) 修改base源# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo 修改epel源 # wget -O /etc/yum.repos.d/epel.repo http://mirrors

基于LAMP php7.1搭建owncloud云盘 与ceph对象存储S3借口整合案例

ownCloud简介:      是一个来自 KDE 社区开发的免费软件,提供私人的 Web 服务.当前主要功能包括文件管理(内建文件分享).音乐.日历.联系人等等,可在PC和服务器上运行.     简单来说就是一个基于Php的自建网盘.基本上是私人使用这样,因为直到现在开发版本也没有暴露注册功能.我这里采用基于php7.1的LAMP环境搭建这个owncloud 下一篇将介绍和ceph对象存储整合案例 一.环境准备,这里的owncloud是10版本,所以需要php5.6以上的LAMP环境,否则会

Ceph对象存储RGW对接企业级网盘OwnCloud三步走

上篇文章我们把Ceph对象存储搭建成功了,但是成功了之后我们怎么用呢?下面我们本文就来讲下Ceph对象存储对接企业私有云网盘OwnCloud. OwnCloud分为企业版和社区版,我们只说社区版,在这里我就不多赘述了. 那么Ceph对接OwnCloud分三步走. 第一:安装Ceph配置RGW对象存储 第二:安装OwnCloud 第三:对接 第一步在上个文章里面已经做了,那么第二步是安装OwnCloud,可以看下我之前的文章进行安装. 如何搭建OwnCloud网盘 主要讲下第三步 要点:网盘节点D

ceph对象存储(rgw)服务、高可用安装配置

ceph对象存储服务.高可用安装配置 简介:    Ceph本质上就是一个rados,利用命令rados就可以访问和使用ceph的对象存储,但作为一个真正产品机的对象存储服务,通常使用的是Restfulapi的方式进行访问和使用.而radosgw其实就是这个作用,安装完radosgw以后,就可以使用api来访问和使用ceph的对象存储服务了.    首先明白一下架构,radosgw其实名副其实,就是rados的一个网关,作用是对外提供对象存储服务.本质上radosgw(其实也是一个命令)和rbd

Ceph对象存储安装部署及验证

今天来玩下Ceph的对象存储,之前一直觉得对象存储对于玩OpenStack的我来说用不到,但随着越来越多的海量文件的需求,不得不促使我们来学习对象存储.所谓活到老学到老,尤其是我们搞IT的,每天都得学习新技术. 首先呢就是部署一套Ceph环境,这里就不再赘述了,网上好多安装文档,都比较清晰了. 重点说下RGW部分 安装完集群之后 ceph-deploy install --rgw devin-ceph1    #因为是测试所以只用一个rgw 然后创建RGW实例 ceph-deploy rgw c

搭建开源存储owncloud环境

搭建开源存储owncloud环境 记一次部署开源私有存储owncloud环境一次过,此外下载PC端和手机端,别人都帮你做好了直接开用. 环境centos7 apache mysql php5.6 准备工作 centos7 owncloud-10.0.7.zip 关闭防火墙 systemctl stop firewalld systemctl disable firewalld 关闭selinux vi /etc/selinux/config 把SELINUX=enforcing 改成SELINU

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配