创建软RAID5

一  创建4块硬盘组软  RAID5 

新增四块20G的新硬盘,将四块硬盘分别分区,全部大小都分为一个区,并改  id  为 “ fd ”     

1创建阵列mdadm -Cv /dev/md5 -l5 -n3 -x1 /dev/sd[bcde] (  *大C 创建冗余   v显示过程   l  : raid级别    n : raid硬盘数    x  : 热备盘数量  )

2 mdadm -D /dev/md5 查看同步进度

*cat /proc/mdstat 另一种查看方法

3 mkfs.ext4 /dev/md5   (格式化,挂载于 /xuexi 目录下,并设置为开机自动挂载  )

[[email protected]~]# mkdir /xuexi

[[email protected]~]# mount /dev/md5  /xuexi/

[[email protected]~]# df -hT

[[email protected]~]# vim /etc/fstab

4 mdadm -D -s >/etc/mdadm.conf 生成配置文件并在末尾加auto=yes (  *不生成配置文件 开机raid损坏   )

[[email protected]~]# mdadm -D -s >/etc/mdadm.conf 

[[email protected]~]#vim /etc/mdadm.conf

5 mdadm /dev/md5 -f /dev/sdb 模拟sdb损坏 -f损坏

6 mdadm /dev/md5 -r /dev/sdb 拔出模拟损坏的sdb

7 mdadm /dev/md5 -a /dev/sdb 插回模拟损坏的sdb

8 mdadm -G /dev/md5 -n4     raid拉伸 把热备盘sdb也加入磁盘阵列

9 resize2fs /dev/md5 在线动态格式化 使新加入的sdb容量也被挂在上

二 正确删除软raid方法

1 umount /md5  先卸载阵列

2 mdadm -S /dev/md5 停止raid运行 (*大S stop)

3 mdadm --misc --zero-superblock /dev/sd[bcdef] 删除磁盘

4 删除配置文件 (*如果fstab或rc.local配置了自动挂载都要删除)

总结

创建完raid要等同步到100%后再格式化

raid拉伸后要把拉伸的部分resize2fs格式化

删除时 停止挂载 停止raid 删除硬盘 删配置文件

涉及目录

/etc/mdadm.conf 要手动生成这个配置文件 里面内容末尾加上auto=yes 否则开机会raid损坏

/proc/mdstat 通过查看这个文件可以监控raid工作状态 几个U代表几个盘在工作

参数

-Cv 创建阵列

-l -n -x 阵列级别 几个硬盘组raid 几个热备盘

-D 查看信息

-D -s 写入配置文件

-f -r -a 模拟损坏 拔除硬盘 插回硬盘

-G -n 将新增的热备盘加入阵列

-S 停止raid

原文地址:https://www.cnblogs.com/canflyfish/p/11295503.html

时间: 2024-10-07 03:30:42

创建软RAID5的相关文章

ubuntu创建软raid5

1. 在虚拟机里面添加5块SATA虚拟硬盘,每个20G,三个数据盘,一个校验盘,一个spare盘.添加完之后重启虚拟机. 2. 查看系统磁盘信息 sudo fdisk -l 3. 为添加的虚拟硬盘创建分区 sudo fdisk /dev/sd[d-f] 按照指导,n:创建新的分区,p:创建主分区,p:查看分区设置,w:保存修改(其他按照默认值配置) 4. 创建软raid5 sudo mdadm --create --auto=yes /dev/md0 --level=5 --raid-devic

XenServer 6.5 mdadm 创建软 raid5 失败的解决方案 unexpected failure opening /dev/md0

之前在 XenServer 6.2 下用的挺好的软 raid5,重装了系统到 XenServer 6.5 版,不认 raid5 了,用 mdadm 重新创建,错误提示如下: [[email protected]67 ~]# mdadm --create --verbose /dev/md0 -l 5 -n 3 -x 0 /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: layout defaults to left-symmetric mdadm: layout defa

构建软RAID5磁盘阵列&RAID设备恢复

构建软RAID5磁盘阵列&RAID设备恢复 需求描述 为Linux服务器添加4块SCSI硬盘 使用mdadm软件包,构建RAID5磁盘阵列,提高磁盘存储的性能和可靠性 安装mdadm 准备用于RAID阵列的分区 -- 为Linux服务器添加4块SCSI硬盘,并使用fdisk工具个划分出一块2GB的分区依次为:/dev/sde1./dev/sdg1./dev/sdh1./dev/sdf1 -- 将其类型ID更改为"fd",对应为"Linux raid autodetec

L​inux 中使用mdadm创建软raid

Linux 中使用mdadm创建软raid raid 磁盘阵列: raid0 raid1  raid5   raid10 raid0 : 优点:读写速度快 缺点:安全性不高 raid1: 优点:安全性高,读取速度快 缺点:写入速度慢 raid5: 安全性介于0和1之间读写速度介于0和1之间 优点:可以做冗余磁盘 完整创建raid5过程: 1.新建4个分区: [[email protected] Desktop]# fdisk /dev/sdb 2.创建raid5: [[email protect

软Raid5制作

以raid5为例: 1.添加4块磁盘要求:容量.转速.接口一样的硬盘. 2.创建分区并修改ID[[email protected] ~]# fdisk /dev/sdb[[email protected] ~]# fdisk /dev/sdc[[email protected] ~]# fdisk /dev/sdd[[email protected] ~]# fdisk /dev/sde注意:修改ID为fd(支持raid)Device Boot Start End Blocks Id Syste

软Raid5,LVM,3T大硬盘纠缠操作的问题

新服务器,4块3T大硬盘,软Raid5 组建 加上LVM分区各种一通操作... 悲催的是经过4天的软raid rebuild,最终状态给我FAIL了,当看到raid的state[ State : clean, FAILED],欲哭无泪说的就是me当时的心情了. 更悲催的是一通mdadm remove 此软raid  后,搞到后来其中一块参与我raid组建工作的硬盘光荣被挂了,用 mkfs.ext4 /dev/sde1: /dev/sde1 is apparently in use by the

Linux下创建软Raid

1- Linux下创建软Raid 步骤1.创建磁盘,并转换为fd #fdisk /dev/sdb //这里使用新的磁盘sdb 然后输入n ,创建分区 使用默认的起始点 输入大小为+100M 然后重复刚才的操作4次,创建4个分区,创建完4个分区后 我们还要改变分区的ID 在分区的主菜单输入T 然后输入要改变ID的分区号,也就是最后4个分区 然后输入分区的ID:fd 四个分区都改成FD 完成后,在分区主菜单里面使用p 查看分区信息 是不是最后4个分区都是ID为fd 如果OK的话,就输入w 保存退出

软RAID5的创建

                                        linux系统下 mdadm 参数 -C 创建 -a自动创建md0 -l 指定raid级别 -n 指定使用硬盘数量 -x 指定备份硬盘数量 mdadm -S  /dev/md0 关闭RAID ,关掉之前要先卸载掉 mdadm -R  /dev/md0 重新启动RAID,但是可能由于操作系统或者软件版本问题会找不到md0设备需要重启机器 (确保mdadm.conf已写好) 搭建raid5: 最少三块硬盘 #mdadm

MDADM创建软RIAD

1.对磁盘进行分区,分区类型为fd.(fdisk /dev/sdb ) Disk /dev/sdb: 21.5 GB, 21474836480 bytes 255 heads, 63 sectors/track, 2610 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal