mdadm 软RAID

mdadm是linux下用于创建和管理软件RAID的命令,是一个模式化命令。但由于现在服务器一般都带有RAID阵列卡,并且RAID阵列卡也很廉价,且由于软件RAID的自身缺陷(不能用作启动分区、使用CPU实现,降低CPU利用率),因此在生产环境下并不适用。但为了学习和了解RAID原理和管理,因此仍然进行一个详细的讲解:

一、创建模式

选项:-C

专用选项:

-l 级别

-n 设备个数

-a {yes|no} 自动为其创建设备文件

-c 指定数据块大小(chunk)

-x 指定空闲盘(热备磁盘)个数,空闲盘(热备磁盘)能在工作盘损坏后自动顶替

注意:创建阵列时,阵列所需磁盘数为-n参数和-x参数的个数和

示例:

1、创建raid0:

1.1 创建raid

mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb{1,2}

注意:用于创建raid的磁盘分区类型需为fd

 1.2 格式化:

mkfs.ext4 /dev/md0

注意:在格式化时,可以指定-E选项下的stride参数指定条带是块大小的多少倍,有在一定程度上提高软RAID性能,如块默认大小为4k,而条带大小默认为64k,则stride为16,这样就避免了RAID每次存取数据时都去计算条带大小,如:

mkfs.ext4  -E stride=16 -b 4096 /dev/md0

其中stride=chunk/block,为2的n次方

2、创建raid1:

2.1 创建raid

[[email protected] ~]# mdadm -C /dev/md1 -a yes -n 2 -l 1 /dev/sdb{5,6}

mdadm: Note: this array has metadata at the start and

may not be suitable as a boot device.  If you plan to

store ‘/boot‘ on this device please ensure that

your boot-loader understands md/v1.x metadata, or use

--metadata=0.90

Continue creating array? y

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md1 started.

注意:这个提示是说软raid不能用作启动分区。

 2.2 格式化:

[[email protected] ~]# mkfs.ext4  /dev/md1

3、创建raid5:

由于没有磁盘空间,我将原来做raid1的测试磁盘全部删除后重新建立四个分区用于raid5测试,分别为sdb5-8

3.1 创建raid5

[[email protected] ~]# mdadm -C /dev/md2 -a yes -l 5 -n 3 /dev/sdb{5,6,7}

mdadm: /dev/sdb5 appears to be part of a raid array:

level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013

mdadm: /dev/sdb6 appears to be part of a raid array:

level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013

mdadm: /dev/sdb7 appears to be part of a raid array:

level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013

Continue creating array? y

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md2 started.

注意:由于我的分区刚才在raid1上使用过,因此有此提示。

3.2 格式化:

[[email protected] ~]# mkfs.ext4 /dev/md2

3.3 增加热备磁盘:

[[email protected] ~]# mdadm /dev/md2 -a /dev/sdb8

4、查看md状态:

4.1 查看RAID阵列的详细信息:

选项: -D = --detail

mdadm -D /dev/md#   查看指定RAID设备的详细信息

4.2 查看raid状态

[[email protected] ~]# cat /proc/mdstat

Personalities : [raid0] [raid1]

md0 : active raid0 sdb2[1] sdb1[0]

4206592 blocks super 1.2 512k chunks

md1 : active raid1 sdb6[1] sdb5[0]

2103447 blocks super 1.2 [2/2] [UU]

unused devices: <none>

注意:在创建raid前,应该先查看磁盘是否被识别,如果内核还为识别,创建Raid时会报错:

cat /proc/partitions

如果没有被识别,可以执行命令:

kpartx /dev/sdb或者partprobe/dev/sdb

二、管理模式

选项:-a(--add),-d(--del),-r(--remove),-f(--fail)

1、模拟损坏:

mdadm /dev/md1 -f /dev/sdb5

2、移除损坏的磁盘:

mdadm /dev/md1 -r /dev/sdb5

3、添加新的硬盘到已有阵列:

mdadm /dev/md1 -a /dev/sdb7

注意:

3.1、新增加的硬盘需要与原硬盘大小一致

3.2、如果原有阵列缺少工作磁盘(如raid1只有一块在工作,raid5只有2块在工作),这时新增加的磁盘直接变为工作磁盘,如果原有阵列工作正常,则新增加的磁盘为热备磁盘。

4、停止阵列:

选项:-S = --stop

mdadm -S /dev/md1

三、监控模式

选项:-F

不常用,不做详细说明。

四、增长模式,用于增加磁盘,为阵列扩容:

选项:-G

示例,将上述raid5的热备磁盘增加到阵列工作磁盘中

[[email protected] ~]# mdadm -G /dev/md2  -n 4

注意:-n 4 表示使用四块工作磁盘

再次使用-D选项查看阵列详细信息如下:

[[email protected] ~]# mdadm -D /dev/md2

……此处略掉部分信息……

Number   Major   Minor   RaidDevice State

0       8       21        0      active sync   /dev/sdb5

1       8       22        1      active sync   /dev/sdb6

3       8       23        2      active sync   /dev/sdb7

4       8       24        3      active sync   /dev/sdb8

五、装配模式,软RAID是基于系统的,当原系统损坏了,需要重新装配RAID

选项:-A

示例:将上述已经停止的阵列重新装配:

mdadm -A /dev/md1 /dev/sdb5 /dev/sdb6

实现自动装配:

mdadm运行时会自动检查/etc/mdadm.conf  文件并尝试自动装配,因此第一次配置raid后可以将信息导入到/etc/mdadm.conf  中,命令如下:

[[email protected] ~]# mdadm -Ds >/etc/mdadm.conf

时间: 2024-11-14 02:39:54

mdadm 软RAID的相关文章

软RAID管理

软RAID管理 软RAID 软RAID 提供管理界面:mdadm 软RAID为空余磁盘添加冗余,结合了内核中的md(multi devices). RAID 设备可命名为/dev/md0./dev/md1./dev/md2./dev/md3等 观察md的状态:cat /proc/mdstat 软RAID的实现 mdadm是模式化的工具,支持的RAID 级别:LINEAR.RAID0.RAID1.RAID4.RAID5.RAID6.RAID10. mdadm mdadm - manage MD d

CentOS下软raid和lvm结合

一.添加三块10G硬盘 [[email protected] ~]# fdisk -l |grep sd 磁盘 /dev/sda:53.7 GB, 53687091200 字节,104857600 个扇区 /dev/sda1 * 2048 2099199 1048576 83 Linux /dev/sda2 2099200 104857599 51379200 8e Linux LVM 磁盘 /dev/sdb:10.7 GB, 10737418240 字节,20971520 个扇区 磁盘 /de

L&#8203;inux 中使用mdadm创建软raid

Linux 中使用mdadm创建软raid raid 磁盘阵列: raid0 raid1  raid5   raid10 raid0 : 优点:读写速度快 缺点:安全性不高 raid1: 优点:安全性高,读取速度快 缺点:写入速度慢 raid5: 安全性介于0和1之间读写速度介于0和1之间 优点:可以做冗余磁盘 完整创建raid5过程: 1.新建4个分区: [[email protected] Desktop]# fdisk /dev/sdb 2.创建raid5: [[email protect

15.文件系统——软RAID的实现(二)(mdadm,watch, RAID1)

前文介绍了使用mdadm命令穿件软RAID0的过程,本章将继续演示RAID1和RAID5的创建过程. 在演示具体的创建过程之前,需要进一步介绍madam命令可用的选项: -f:把某设备指定为模拟损坏 -r:把损坏的设备移除 -a:新增一个设备到阵列中 一.创建一个大小为1G的RAID1: 对RAID1来说,其利用率只有50%,故要使RAID1的有效空间为1G,就需要两个1G的分区,其创建过程如下: [[email protected] backup]# fdisk/dev/sdc WARNING

14.文件系统——软RAID的实现(一)(mdadm,RAID0,主次设备号)

前文中介绍过,软RAID其实是通过md来实现的,它本质上是一个程序,用来模拟RAID.它依赖于CPU完成,需要占用大量的CPU时钟周期,所以性能不会太好:并且它完全依赖于当前操作系统,所以一旦操作系统损坏,则很有可能影响到该RAID的使用,因此在生产环境中,不建议使用软RAID.这里仅对软RAID的实现方式作一些简单的介绍. md模块可以基于任何块设备来创建,也就意味着它可以使用一个完整的分区来创建,例如使用/dev/sdb5和/dev/sdb6来实现RAID1:它可以在/dev/md0和/de

linux命令:watch 、lsmod、mdadm 创建软RAID

lsmod 列出模块:  [[email protected] mnt]# lsmod Module                  Size  Used by ext2                   58683  1 raid1                  28564  1 autofs4                20405  3 ipt_REJECT              1867  2 nf_conntrack_ipv4       7694  2 nf_defra

raid基础及linux软raid之dmadm

RAID  0 : 条带         性能提升:读,写  n         冗余能力(容错能力):无         空间利用率: nS         至少2块磁盘    1 : 镜像         性能提升:写性能有所下降,读性能提升         冗余能力:有         空间利用率: 1/2         至少2块磁盘  2 :   3 :   4 :   5 :          性能表现:读写提升         冗余能力:有         空间利用率:(n-1)/

Redhat6.4 软raid磁盘更换

Redhat6.4 软raid磁盘更换 由下图可知/dev/md10的raid级别为10,raid成员为4块硬盘,正在工作的却只有3块,其中一块故障丢失. 添加一块新硬盘,创建分区为fd(Linux raid autodetect)模式 添加新硬盘为故障阵列raid10的热备 热备盘添加成功后会自动顶替raid10中故障硬盘位置,自动Rebuild同步,等待同步完成. Rebuild完成,状态正常. 注:若系统创建/etc/mdadm.conf开机自动挂载软raid文件,需将此文件中故障盘符更改

linux自学笔记——RAID级别特性以及软RAID的实现

RAID,Redundant Arrays of Inexpensive Disks 廉价冗余磁盘阵列,又称为Redundant Arrays of Independent Disks,独立冗余磁盘阵列. 其基本原理就是利用多块较小的磁盘通过不同的组织方式,组成一个大的磁盘组,以提高磁盘的IO能力和耐用性.由于组织方式不同,所以把RAID分为多个级别.而最常用的是RAID0,RAID1,RAID5,RAID6,RAID10,RAID01.下面我们将对以上的级别进行比较分析. 级别:level R