【学神-Linux】--Raid配置与管理

Raid配置与管理

一:Raid简介

RAID(Redundant Array of Independent Disks,独立磁盘冗余阵列)可以提供较普通磁盘更高的速度、安全性,所以服务器在安装时都会选择创建RAID。RAID的创建有两种方式:软RAID(通过操作系统软件来实现)和硬RAID(使用硬件阵列卡)。

RAID技术分为几种不同的等级,分别可以提供不同的速度,安全性和性价比。根据实际情况选择适当的RAID级别可以满足用户对存储系统可用性、性能和容量的要求。RAID级别主要有以下几种:RAID0,RAID1,RAID2,RAID3,RAID4,RAID5,RAID6,RAID(0+1),RAID(1+0)等,经常使用的是RAID5和RAID(1+0),本文主要介绍RAID0,RAID1,RAID5以及RAID(1+0)。

二:常用RAID介绍

RAID 0

striping(条带模式),至少需要两块磁盘,做RAID分区的大小最好是相同的(可以充分发挥并发优势);数据分散存储于不同的磁盘上,在读写的时候可以实现并发,所以相对其读写性能最好;但是没有容错功能,任何一个磁盘的损坏将损坏全部数据;

磁盘利用率为100%。

RAID 1

mirroring(镜像卷),至少需要两块硬盘,raid大小等于两个raid分区中最小的容量(最好将分区大小分为一样),数据有冗余,在存储时同时写入两块硬盘,实现了数据备份;

磁盘利用率为50%,即2块100G的磁盘构成RAID1只能提供100G的可用空间。

RAID 5

需要三块或以上硬盘,可以提供热备盘实现故障的恢复;只损坏一块,没有问题。但如果同时损坏两块磁盘,则数据将都会损坏;

RAID5把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和 相对应的数据分别存储于不同的磁盘上,其中任意N-1块磁盘上都存储完整的数据,也就是说有相当于一块磁盘容量的空间用于存储奇偶校验信息。因此当RAID5的一个磁盘发生损坏 后,不会影响数据的完整性,从而保证了数据安全。当损坏的磁盘被替换后,RAID还会自动 利用剩下奇偶校验信息去重建此磁盘上的数据,来保持RAID5的高可靠性;

空间利用率:(n-1)/n(如4块硬盘利用率为3/4);

RAID(1+0)

Raid 10是一个Raid 0Raid1的组合体,它是利用奇偶校验实现条带集镜像,所以它继承了Raid0的快速和Raid1的安全。我们知道,RAID 1在这里就是一个冗余的备份阵列,而RAID 0则负责数据的读写阵列。其实,下图只是一种RAID 10方式,更多的情况是从主通路分出两路,做Striping操作,即把数据分割,而这分出来的每一路则再分两路,做Mirroring操作,即互做镜像;

磁盘利用率与RAID1一样为50%,但读写速度却是大大提升了;

三:实验环境

本次实验主要是针对软raid进行配置操作,需要准备5块硬盘(虚拟机)。

实验内容包含以下几点:

RAID0基本配置;

RAID1基本配置;

RAID5基本配置;

RAID(1+0)基本配置

四:实验步骤

实验一.RAID0配置

1.添加一块sdb硬盘,分成2个主分区sdb1,sdb2

[[email protected] ~]# fdisk /dev/sdb
[[email protected] ~]# ll /dev/sdb*
brw-rw---- 1 root disk 8, 16 Oct 31 15:42 /dev/sdb
brw-rw---- 1 root disk 8, 17 Oct 31 15:42 /dev/sdb1
brw-rw---- 1 root disk 8, 18 Oct 31 15:42 /dev/sdb2

2.创建RAID0阵列

[[email protected]egod63 ~]# mdadm -C -v /dev/md0  -l 0 -n 2 /dev/sdb1 /dev/sdb2
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

注:mdadm是raid管理工具,-C:创建新阵列;-v:显示详细信息;-l:设定磁盘阵列级别;-n:设定阵列成员数量

查看阵列信息

[[email protected] ~]# mdadm -Ds
ARRAY /dev/md0 metadata=1.2 name=xuegod63.cn:0UUID=df3227be:0b8f7587:d9ac0626:8a33fc8b

3.生成配置文件

[[email protected] ~]# mdadm -Ds  > /etc/mdadm.conf

4.将配置好的RAID0阵列进行分区

[[email protected] ~]# fdisk /dev/md0
[[email protected] ~]# ll /dev/md0*
brw-rw---- 1 root disk   9, 0 Oct 31 16:01 /dev/md0
brw-rw---- 1 root disk 259, 0 Oct 31 16:01/dev/md0p1

5.格式化并挂载分区

[[email protected] ~]# mkfs.ext4 /dev/md0p1
[[email protected] ~]# mkdir /raid0
[[email protected] ~]# mount /dev/md0p1 /raid0
[[email protected] ~]# df -h
Filesystem     Size  Used Avail Use% Mounted on
/dev/sda3       18G  4.0G   13G 24% /
tmpfs          495M  224K  495M  1% /dev/shm
/dev/sda1      194M   30M  155M 16% /boot
/dev/md0p1      485M  11M  449M   3% /raid0

raid0到此创建完成!

实验二.RAID1配置

1.添加一块sdc硬盘,分成3个主分区sdc1,sdc2,sdc3

[[email protected] ~]# fdisk /dev/sdc
[[email protected]egod63 ~]# ll /dev/sdc*
brw-rw---- 1 root disk 8, 16 Oct 31 16:32 /dev/sdc
brw-rw---- 1 root disk 8, 16 Oct 31 16:32 /dev/sdc1
brw-rw---- 1 root disk 8, 16 Oct 31 16:32 /dev/sdc2
brw-rw---- 1 root disk 8, 16 Oct 31 16:32 /dev/sdc3

2.创建RAID1阵列

[[email protected] ~]# mdadm -C -v /dev/md1 -l 1 -n 2 -x1 /dev/sdc{1,2,3}
mdadm: Note: this array has metadata at the startand
    may not be suitable as a bootdevice.  If you plan to
    store ‘/boot‘ on this deviceplease ensure that
    your boot-loader understandsmd/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 1059200K
Continue creating array?
Continue creating array? (y/n) y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.

注:-x:阵列中备用盘的数量

3.生成配置文件

[[email protected] ~]# mdadm -Ds > /etc/mdadm.conf
[[email protected] ~]#cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=xuegod163.com:0UUID=213f0f10:bbeb0493:60694473:8871242a
ARRAY /dev/md1 metadata=1.2 spares=1 name=xuegod163.com:1UUID=ac519296:4c614e0e:a0e1da67:cb93eb66

注:spares=1表示:有热备盘1个

4.将配置好的RAID1阵列进行分区并挂载

[[email protected] ~]# mkdir /raid1
[[email protected] ~]# fdisk /dev/md1
[[email protected] ~]# mkfs.ext4 /dev/md1p1
[[email protected] ~]# mount /dev/md1p1 /raid1/
[[email protected] ~]# df -h
Filesystem      Size Used Avail Use% Mounted on
/dev/sda3        18G 4.0G   13G  24% /
tmpfs          495M  224K  495M  1% /dev/shm
/dev/sda1      194M   30M  155M 16% /boot
/dev/md0p1     485M   11M  449M  3% /raid0
/dev/md1p1   1019M 34M 934M 4% /raid1

到此raid1已经配置完成了,下面模拟一下磁盘故障以及恢复过程

1.将sdc1设置为故障状态

[[email protected] ~]# mdadm -f /dev/md1 /dev/sdc1
mdadm: set /dev/sdc1 faulty in /dev/md1

2.将sdc1移除RAID1阵列

[[email protected] ~]# mdadm -r /dev/md1 /dev/sdc1
mdadm: hot removed /dev/sdc1 from /dev/md1

3.查看阵列状态

[[email protected] ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : activeraid1 sdc3[2] sdc2[1]
     1059200 blocks super 1.2 [2/2] [UU]
md0 : active raid0 sdb2[1] sdb1[0]
      2119680 blocks super1.2 512k chunks
unused devices: <none>

由此可以看出sdc1已被热备盘sdc3代替。

4.生成配置文件

[[email protected] ~]# mdadm -Ds > /etc/mdadm.conf
[[email protected] ~]# cat !$
cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=xuegod63.com:0UUID=15b8b7e0:caddb3de:d7d66e00:f42d12e4
ARRAY /dev/md1 metadata=1.2 name=xuegod63.com:1UUID=6b7cf136:220e9678:c924c7ce:c1e3f285

可以看出spares=1没了,也就是热备盘没有了。

实验三.RAID5配置

1.添加一块sde硬盘,分成3个主分区sde1,sde2,sde3,sde4,sde5,sde6

[[email protected] ~]# fdisk /dev/sdc
[[email protected] ~]# ll /dev/sde*
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde1
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde2
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde3
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde4
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde5
brw-rw---- 1 root disk 8, 16 Oct 31 17:10 /dev/sde6

2.创建RAID5阵列

[[email protected] ~]# mdadm -C -v /dev/md5 -l 5 -n 3-c 32 -x 1 /dev/sde{1,2,3,5}
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: size set to 1059200K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
3.生成配置文件
[[email protected] ~]# mdadm -Ds > /etc/mdadm.conf
[[email protected] ~]# cat  !$
cat  /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=xuegod63.com:0UUID=213f0f10:bbeb0493:60694473:8871242a
ARRAY /dev/md1 metadata=1.2 name=xuegod63.com:1UUID=ac519296:4c614e0e:a0e1da67:cb93eb66
ARRAY /dev/md5 metadata=1.2 spares=1 name=xuegod63.com:5UUID=c367f714:3da62060:28b9dcda:d6753102

其余步骤与RAID0、RAID1一致,此处不再赘述

为RAID5阵列添加分区

再新添加一块硬盘分区/dev/sde6,希望扩展RAID5阵列到4块硬盘
[[email protected] ~]# mdadm -a /dev/md5/dev/sde6  
 mdadm: added/dev/sde6
 
[[email protected] ~]# cat /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5][raid4]
md5 : active raid5 sde6[5](S) sde1[0] sde5[3](S)sde3[4] sde2[1]
      2118400 blocks super1.2 level 5, 32k chunk, algorithm 2 [3/3] [UUU]
     md1 : active raid1sdc3[2] sdc2[1]
      1059200 blocks super1.2 [2/2] [UU]
     md0 : active raid0sdb2[1] sdb1[0]
      2119680 blocks super1.2 512k chunks
     unused devices:<none>
 [[email protected]~]# mdadm -G /dev/md5 -n 4
mdadm: Need to backup 192K of critical section..
[[email protected] ~]# mdadm -Ds > /etc/mdadm.conf
[[email protected] ~]# cat !$
cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=xuegod63.com:0UUID=213f0f10:bbeb0493:60694473:8871242a
ARRAY /dev/md1 metadata=1.2 name=xuegod63.com:1UUID=ac519296:4c614e0e:a0e1da67:cb93eb66
ARRAY /dev/md5 metadata=1.2 spares=1 name=xuegod63.com:5UUID=c367f714:3da62060:28b9dcda:d6753102

实验四.简单介绍RAID(1+0)配置

1.添加硬盘,创建分区sdf1,sdf2,sdf3,sdf4

[[email protected] ~]# ll /dev/sdf*
brw-rw---- 1 root disk 8, 16 Oct 31 18:10 /dev/sdf
brw-rw---- 1 root disk 8, 16 Oct 31 18:10 /dev/sdf1
brw-rw---- 1 root disk 8, 16 Oct 31 18:10 /dev/sdf2
brw-rw---- 1 root disk 8, 16 Oct 31 18:10 /dev/sdf3
brw-rw---- 1 root disk 8, 16 Oct 31 18:10 /dev/sdf4

2.创建2个RAID1 

[[email protected] ~]# mdadm -C -v /dev/md11 -l 1 -n 2/dev/sdf{1,2}
[[email protected] ~]# mdadm -C -v /dev/md12 -l 1 -n 2/dev/sdf{3,4}

3.在RAID1基础上创建RAID0

[[email protected] ~]# mdadm -C -v /dev/md10 -l 0 -n 2/dev/md1{1,2}
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.

4.生成配置文件

[[email protected] ~]# mdadm -Ds > /etc/mdadm.conf
[[email protected] ~]# cat !$
cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=xuegod63.com:0UUID=15b8b7e0:caddb3de:d7d66e00:f42d12e4
ARRAY /dev/md1 metadata=1.2 name=xuegod63.com:1UUID=6b7cf136:220e9678:c924c7ce:c1e3f285
ARRAY /dev/md5 metadata=1.2 spares=1 name=xuegod63.com:5UUID=0135d9f1:dfc01d99:315e46ed:4738fef6
ARRAY /dev/md11 metadata=1.2 name=xuegod63.com:11UUID=a7d22ee3:65c5a8c9:d7abe8a5:0a49f45d
ARRAY /dev/md12 metadata=1.2 name=xuegod63.com:12UUID=d46af9a5:fbf486e7:03ff3942:37076f39
ARRAY /dev/md10 metadata=1.2 name=xuegod63.com:10UUID=94f7d294:2148e306:542727f0:d6d06446

其余使用步骤与之前一样,本次实验到此已经结束。

学神-IT-教育51cto技术交流群:468845589  快来上我们公开课吧!

学神MK老师:1273815479

学神ZY老师:3054384936

本文由学神-IT-教育1506班VIP学员 学神-1508-VIP-逍遥同学整理提供

时间: 2024-11-05 23:32:12

【学神-Linux】--Raid配置与管理的相关文章

linux下的Raid配置和管理

linux下的Raid配置和管理 一:实验环境 1):虚拟机 2):虚拟机上配置lingux系统 3):利用linux系统实现Raid的配置 4):在虚拟机中加入6快硬盘 二:实验目标 1):熟练掌握几种常用的Raid 2):对于Raid0 Raid1和Raid5三种Raid要熟练掌握配置命令 3):理解几种常用Raid的区别与用处 4):对几种不常用的Raid要做认识 5):理解并记住各Raid的实验要求 三:实验步骤 1):配置raid0 1:环境: 添加一个sdb硬盘,分两个1G的主分区.

Linux Raid和LVM管理

1.磁盘管理 #提示没有partprobe yum -y install parted #新硬盘新建分区,并将类型改为Linux Raid autodetect #非交互方式,注意1与t之间有一个回车键 fdisk /dev/sde <fdisk.txt fdisk.txt: n p 1 1 t fd w #新建分区,注意1与w之间有一个回车键 fdisk /dev/sdf <fdisk1.txt fdisk.txt: n p 1 1 w q #将磁盘格式化为ext4文件系统 mkfs.ext

linux网络配置和管理

网络很重要!网络是一切网络服务的基础,没有网络,就不会有今天的BTA.现在的服务器主要是linux,所以linux的网络配置和管理很重要. 一,网络通信的简介通信的三要素是:ip地址,掩码,路由.ip和netmask是必须有的,有了这两个条件,可以实现本地网络通信.如果有ip,netmask,route,就可以实现跨网段通信.还有一个点就是DNS,域名解析. 二,linux网络配置linux配置网络的方式很多,以下我从四个方向介绍网络的配置方式.从简单到难.1,图形界面方式2,伪图形界面方式3,

linux网络配置、管理

配置IP地址: 通过命令行( ifconfig , ip ):即时生效,重启失效 通过配置文件:重启生效,或者通过/etc/init.d/network restart重读配置文件 ifconfig:配置网络接口 ifconfig 显示当前激活的所有网卡信息 [[email protected] ~]# ifconfig eth0      Link encap:Ethernet  HWaddr 00:50:56:9F:22:36            inet addr:192.168.57.

Linux 网络配置和管理

一.基本概念: 1.协议protocol:约定收发双方能理解的数据格式. 2.分层:将复杂任务分解为简单的任务. 3.MAC:Media Access Control介质访问控制. 二.网络类型: 1.CSMA/CD:监听到网络空闲即立即发送信息,边发送边监听. 著名的以太网就采用这种方式发送信息. 单工:要么发,要么收. 双工:收发同时,互不影响. CSMA/CD设备: a.Hub:集线器,接收双方在接收信息就独占线路,其他接收双方只能等待.可见效率较低. 现在已经很少用Hub. b.网桥(只

浪潮服务器上RAID配置实战及RAID相关知识

 RAID基本概念,专用术语介绍 我们提供的RAID卡支持各种常用RAID级别,如 0,1,5,10,50等,您可以根据数据的重要性来选择,在开始使用RAID卡之前,我们希望您能够对下面的概念有较深的理解,从而更好的配置和使用您的服务器. RAID 0 是无数据冗余的存储空间条带化,具有低成本.极高读写性能.高存储空间利用率的RAID级别,适用于Video / Audio存储.临时文件的转储等对速度要求极其严格的特殊应用.但由于没有数据冗余,其安全性大大降低.构成阵列的任何一块硬盘损坏都将带来数

Ctrl+H 浪潮Raid配置文档

说明 本手册适用于LSI芯片Raid卡 包括但不限于Inspur 2008/2108 Raid卡.LSI 9240/9260/9261/9271 等Raid卡. 不同型号的Raid卡在某些功能上的支持性不同(例如Inspur2008 Raid卡需要有授权才支持Raid5),具体因您的配置而定. Raid配置与管理 服务器开机自检到浪潮logo画面后,下一步就会进入Raid卡自检过程,此时显示器上会出现Ctrl -H提示,如下图: 按下Ctrl -H组合键后,自检完成就会进入Raid卡配置界面,如

Linux系统下磁盘配额、软RAID及LVM的配置与管理

Linux系统下磁盘配额.软RAID及LVM的 配置与管理 一.设定文件系统配额 1.概述:配额是操作系统的一个可选的功能, 它允许管理员以文件系统为单元, 限制分派给用户或组成员所使用的磁盘空间大小或是使用的总文件数量.这经常被用于那些分时操作的系统上, 对于这些系统而言, 通常希望限制分派到每一个用户或组的资源总量, 从而可以防止某个用户占用所有可用的磁盘空间. 2.配置文件系统配额(基于用户): (1)配置配额前准备工作: 1)备份/home目录,创建分区,进行挂载,将/home目录下的数

Linux入门之磁盘管理(7)RAID的实现

RAID(Redundant Arrays of Inexpensive Independent Disks)被称为廉价冗余阵列,为了提高磁盘的性能或者保存数据完整,将多个磁盘合成一个"阵列"来提供更好的性能.冗余等. RAID一般使用硬件raid,并配合指定 raid的接口或者raid卡来组成硬件raid,但是开销一般比较大,于是在linux中也提供了软件raid的实现. raid的好处: 提高IO能力: 磁盘的并行读写 提高耐用性: 磁盘冗余来实现 RAID技术分类: 多个磁盘组成