Dell/R730XD sas盘 raid0与JBOD性能比较

服务器配置

Dell/R730XD 2620V4*2  16G DDR4*4  300G SAS*2+6T SAS*12

oracle linux 6.9

基础知识

RAID0

raid0组成方式:1块或多块磁盘组成,磁盘a写一部分数据,b写一部分,...,通过将数据分散到不同的磁盘,来提升速度,因此速度为单块磁盘的n(磁盘数)倍。

优点:性能提升,是单盘的n倍;

缺点:无安全冗余,一块坏,全完蛋。

配置单盘raid0的命令:

/opt/MegaRAID/MegaCli/MegaCli64 -PDlist -aALL | grep "ID"  | uniq | awk -F: ‘{print $2}‘ | awk ‘{print $1}‘
Enclosure Device ID: 32

##对每块盘创建raid0,参数解释:
##cfgLdAdd  可创建raid0、1、5、6
##[Enclosure Device ID:磁盘slot]
##[WT|WB] raid写策略:write through(不写缓存)和write back(写缓存),sas盘随机写性能比较差,因此设置WB
##[NORA|RA|ADRA] raid读策略:no read ahead(默认)|read ahead | adpter read ahead
##[direct,cached]读缓存模式:默认direct,读一般不需要经过缓存
##[CachedBadBBU|NoCachedBadBBU]:bbu和write cache的关系,[bad bbu,write back变为write through|bad bbu,依然write back]
## a0 raid卡 adapterid

/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:0] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:1] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:2] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:3] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:4] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:5] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:6] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:7] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:8] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:9] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:10] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:11] WB Direct -a0

##查看设备
/opt/MegaRAID/MegaCli/MegaCli64 -cfgdsply –aALL  | grep -E "DISK\ GROUP|Slot\ Number"

[@s26.txyz.db.d ~]# fdisk -l | grep ‘\/dev\/sd‘
Disk /dev/sda: 299.4 GB, 299439751168 bytes
/dev/sda1   *           1        2611    20971520   83  Linux
/dev/sda2            2611        5222    20971520   83  Linux
/dev/sda3            5222        7311    16777216   82  Linux swap / Solaris
/dev/sda4            7311       36405   233700352    5  Extended
/dev/sda5            7311        9922    20971520   83  Linux
/dev/sda6            9922       36405   212726784   83  Linux
Disk /dev/sdb: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdc: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdd: 6000.6 GB, 6000606183424 bytes
Disk /dev/sde: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdf: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdg: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdh: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdi: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdj: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdk: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdl: 6000.6 GB, 6000606183424 bytes
Disk /dev/sdm: 6000.6 GB, 6000606183424 bytes

JBOD

JBOD:如果说raid0是是一种横排组合,那JBOD就是一种纵向组合,尽管有n块盘,只能一块写满之后,写第二块;一种逻辑组合,损坏一块就会丢失一部分数据。

优点:损失一块磁盘,只丢一部分数据

缺点:写性能相当于单盘。

配置步骤:

##开启adapter0的JBOD
/opt/MegaRAID/MegaCli/MegaCli64 -AdpSetProp EnableJBOD 1 -a0

##对32:0配置JBOD,可惜的是,无法设置一些raid卡参数
/opt/MegaRAID/MegaCli/MegaCli64 -PDMakeJBOD -physdrv[32:0]  -a0

##

性能测试

按上面的特性来看,多块盘的时候,在性能上没有可比较的地方,但本次mfs分布式存储集群配置,需要使用单盘单卷,因此压测场景如下:

  • 单盘raid0
  • 5块盘raid0
  • 单块盘JBOD
  • 5块盘JBOD

分两种场景:随机写,顺序写。压测采用fio进行。

iops

  seq-write rand-write seq-read rand-read
RAID0 95611 7098 56266 3463
JBOD 463 971 55593 630

bandwidth(kb/s)

  seq-write rand-write seq-read rand-read
RAID0 382448 28393 225065 13852
JBOD 1853.2 3886.8 222374 2521.7

看到这个结果,感觉多盘阵列没有测的必要了。

结论

raid0单盘的顺序写性能大约是JBOD的200倍,随机写性能是其10倍。原因可能因为JBOD是软raid,并不适用raid卡,而写raid使用了WB

两者顺序读性能相似,但随机读性能,raid0大约是JBOD的5倍。

时间: 2024-10-26 12:37:56

Dell/R730XD sas盘 raid0与JBOD性能比较的相关文章

根据osdid 查询磁盘是ssd盘还是sas盘

前置条件: 1.安装LSI的Megacli软件包 Megacli64 2.安装scsi设备的查询工具lsscsi apt-get install lsscsi 步骤: 1.根据osdid 查找 盘符 ceph-disk list | grep -A 1 -B 1  osd.0 | egrep "^/dev/sd*\b"|cut -d ':' -f1 2.根据盘符查找该设备的target id lsscsi | grep /dev/sdd | awk '{print $1}' | cut

升级BIOS解决DELL R730XD虚拟机死机问题

1台新配置的DELL R730XD(配置有2个Intel E5-2640 V4的CPU.128GB内存.H730的RAID卡.12块4TB的SATA硬盘.2个495W电源),在安装VMware ESXi 6.5.0(d)版本后,部分虚拟机经常死机,表现为当虚拟机死机时,在vSphere Client或vSphere  Web Client控制台中,无法操作该虚拟机,重新启动该虚拟机亦无响应.有时登录到ESXi控制台,按F2或F12也没有反应.在vSphere Client中查看死机的虚拟机的状态

Vertica在通信行业的替换优势

一.       背景分析 传统关系型数据库在企业市场长期占有稳固的统治地位,许多人都不曾意识到除了传统关系型之外还有其他类型的数据库.传统关系型数据库非常善于处理事务的事务性操作,例如更新操作.但是在处理大数据量的批量操作时候就有点捉襟见肘.例如DB2作为IBM公司开发的一套关系型数据库管理系统,被广泛应用于大型数据仓库项目中,特别是移动行业,自构建经营分析系统以来,基本都采用DB2数据库搭建BI主仓来聚焦于数据分析,支撑内部管理决策.营销推广和客户服务等工作. 随着大数据在带来全新商业模式和

超融合架构与传统IT架构的区别

选择超融合其实是选择一种对效率的提升方式,从某种程度上讲,超融合类似于动车组车厢,每个车厢都将存储.网络.计算融合在一起以保证数据计算存储传输的高效一致性,在扩容.提升算力等方面只需增加节点.模块即可,这解决了业务发展.业务规模.IT维护与规模投资等不确定性带来的成本风险. 从超融合技术产生以来,从虚拟化分布式存储解决方案开始,逐步向相关上下游扩展,以实现真正的“超融合”.起初,各超融合厂商从各自的硬件设备出发,通过单一硬件设备的快速部署设施方向以实现超融合的目的,后来随着软件定义虚拟解决方案的

经历dell R720 服务器坏盘 raid 重建

2015年3月30日下午快下班时候同事从机房出来跟我说服务器磁盘亮黄灯. 我走到机房看见有问题的服务器dell r720前面板闪烁着:Fault detected on drive 0 in disk drive bay 1.中文意思大约是:在驱动器托架1中磁盘0检测到故障. 磁盘0 LED指示灯的确亮着黄灯,看样情况不好很好.这台服务器上跑着公司至关重要的erp数据库,处理故障我需要格外小心.我决定今晚把问题处理掉,不希望问题会拖出其它问题. 在处理之前要做的一个非常关健的步骤就是对数据进行备

关于为什么RAID5往往掉一个盘后第二个盘也立刻挂掉的原因分析

很多人遇到过服务器RAID5挂掉,往往掉一个盘后,第二个盘也立刻挂掉. 大家都知道RAID5 一次允许一个盘缺失, RAID 5也是以数据的校验位来保证数据的安全,但它不是以单独硬盘来存放数据的校验位,而是将数据段的校验位交互存放于各个硬盘上.这样,任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据.硬盘的利用率为n-1. 如果挂掉两个盘,数据就玩完了.理论上两个硬盘同时失效的概率是很低的,但为什么会这样呢? 从数学角度说,每个磁盘的平均无故障时间 (MTBF) 大约为 50 万至

提升Exadata 计算节点本地IO性能

1.问题概述 某客户有一台Exadata X2-2,每个计算节点是4块普通的本地SAS硬盘做成的RAID5,然后在RAID5的本地硬盘上创建了一个文件系统来存放DSG数据同步软件,在后续的运维过程中,发现DSG数据同步软件在进行数据同步时的延时非常严重. DSG进行检查和性能分析后,确认是由于Exadata的本地硬盘提供的IOPS无法满足DSG软件的要求,大量的时间都在等待本地磁盘的读写IO上. 通过磁盘性能分析工具也可以发现,本地盘的IO使用率基本上是在90%以上,严重时长时间100%,客户希

Raid 0 1 5 10的原理、特点、性能区别

1.1 RAID介绍 RAID是磁盘冗余阵列(redundant array of independent disks)简称磁盘阵列. RAID是一种把多块独立的物理磁盘按不同的raid级别组合起形成一个磁盘组,在逻辑上看是一块大的磁盘,可以提供比单个物理磁盘更大的存储容量或更高的存储性能,同时又能提供不同级别数据冗余备份的一种技术. 用RAID最直接的好处是: 提升数据安全性 提升数据读写性能 提供更大的单一逻辑磁盘数据容量存储 1.2.实现模式 软件磁盘阵列(software RAID),主

PMC 12Gb/s SAS存储解决方案全面部署于联想ThinkServer产品线

PMC 12Gb/s SAS存储解决方案 全面部署于联想ThinkServer产品线   Adaptec by PMC的 HBA产品提供高密度外部连接  高效实现存储扩容 引领大数据连接.传送以及存储,提供创新半导体及软件解决方案的PMC公司(纳斯达克代码:PMCS)今日宣布, 联想公司已经选定PMC的存储解决方案,为联想ThinkServer产品线提供外部连接.PMC 为联想所定制的Lenovo 8885E by PMC卡能充分发挥12Gb/s SAS及6.6GB/s PCI Express