两块30G硬盘做RAID1

做这个实验我们需要新添加两块30G的硬盘

[[email protected] ~]# uname -a

Linux ZZSRV1.localdomain 3.10.0-123.el7.x86_64 #1 SMP Mon Jun 30 12:09:22 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux

我们可以不用重启就能显示出磁盘

[[email protected] ~]# echo "- - -" > /sys/class/scsi_host/host0/scan

[[email protected] ~]# echo "- - -" > /sys/class/scsi_host/host1/scan

[[email protected] ~]# echo "- - -" > /sys/class/scsi_host/host2/scan

查看磁盘

[[email protected] ~]# fdisk -l

Disk /dev/sda: 42.9 GB, 42949672960 bytes, 83886080 sectors

Units = sectors of 1 * 512 = 512 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk label type: dos

Disk identifier: 0x0003747c

Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *        2048     1026047      512000   83  Linux

/dev/sda2         1026048    83886079    41430016   8e  Linux LVM

Disk /dev/sdb: 32.2 GB, 32212254720 bytes, 62914560 sectors

Units = sectors of 1 * 512 = 512 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/sdc: 32.2 GB, 32212254720 bytes, 62914560 sectors

Units = sectors of 1 * 512 = 512 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

安装mdadm

[[email protected] ~]# mount /dev/cdrom /mnt/cdrom/

[[email protected] ~]# cd /mnt/cdrom/Packages/

[[email protected] Packages]# ls mdadm*

mdadm-3.2.6-31.el7.x86_64.rpm

[[email protected] Packages]# rpm -ivh mdadm-3.2.6-31.el7.x86_64.rpm

warning: mdadm-3.2.6-31.el7.x86_64.rpm: Header V3 RSA/SHA256 Signature, key ID f4a80eb5: NOKEY

Preparing...                          ################################# [100%]

package mdadm-3.2.6-31.el7.x86_64 is already installed

给磁盘分区

[[email protected] Packages]# fdisk /dev/sdb

[[email protected] Packages]# fdisk /dev/sdc

创建RAID1卷

[[email protected] ~]# mdadm -Cv /dev/md0 -l1 -n2  /dev/sdc1 /dev/sdb1

mdadm: /dev/sdc1 appears to contain an ext2fs file system

size=31456256K  mtime=Thu Jan  1 08:00:00 1970

mdadm: Note: this array has metadata at the start and

may not be suitable as a boot device.  If you plan to

store ‘/boot‘ on this device please ensure that

your boot-loader understands md/v1.x metadata, or use

--metadata=0.90

mdadm: /dev/sdb1 appears to contain an ext2fs file system

size=31456256K  mtime=Thu Jan  1 08:00:00 1970

mdadm: size set to 31439744K

Continue creating array? (y/n) y

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

[[email protected] ~]# cd /

[[email protected] /]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[1] sdc1[0]

31439744 blocks super 1.2 [2/2] [UU]

[========>............]  resync = 41.6% (13101184/31439744) finish=1.5min speed=199772K/sec

unused devices: <none>

格式化RAID卷

[[email protected] Packages]# mkfs.ext4 /dev/md0

mke2fs 1.42.9 (28-Dec-2013)

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

Fragment size=4096 (log=2)

Stride=0 blocks, Stripe width=0 blocks

1310720 inodes, 5238496 blocks

261924 blocks (5.00%) reserved for the super user

First data block=0

Maximum filesystem blocks=2153775104

160 block groups

32768 blocks per group, 32768 fragments per group

8192 inodes per group

Superblock backups stored on blocks:

32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,

4096000

Allocating group tables: done

Writing inode tables: done

Creating journal (32768 blocks): done

Writing superblocks and filesystem accounting information: done

[[email protected] Packages]# mkdir /data

[[email protected] Packages]# mount /dev/md0 /data

[[email protected] Packages]# ll /data/

total 16

drwx------ 2 root root 16384 Aug 15 00:31 lost+found

[[email protected] Packages]# mdadm -Ds

ARRAY /dev/md0 metadata=1.2 name=ZZSRV1.localdomain:0 UUID=c2fe6a35:461511e9:7e9bf672:9baeb95c

[[email protected] Packages]# mdadm -Ds >> /etc/mdadm.conf

[[email protected] Packages]# vi /etc/fstab

在最后添加

/dev/md0        /data                              ext4        defaults    0 0

[[email protected] Packages]# mdadm -Ds

ARRAY /dev/md0 metadata=1.2 name=ZZSRV1.localdomain:0 UUID=c2fe6a35:461511e9:7e9bf672:9baeb95c

[[email protected] Packages]# mdadm -Ds >> /etc/mdadm.conf

[[email protected] Packages]# reboot

[[email protected] ~]# mount

/dev/mapper/VolGroup-lv_root on / type ext4 (rw)

proc on /proc type proc (rw)

sysfs on /sys type sysfs (rw)

devpts on /dev/pts type devpts (rw,gid=5,mode=620)

tmpfs on /dev/shm type tmpfs (rw)

/dev/sda1 on /boot type ext4 (rw)

/dev/md0 on /data type ext4 (rw)

none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)

[[email protected] ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[0] sdc1[1]

31438720 blocks super 1.2 [2/2] [UU]

unused devices: <none>

我们可以模拟故障

将一块30G的硬盘删除

查看日志会出现     需要等一会

sd 2:0:1:0: [sdb] Unhandled error code

sd 2:0:1:0: [sdb] Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_OK

sd 2:0:1:0: [sdb] CDB: Write(10): 2a 00 00 00 00 47 00 00 01 00

md: super_written gets error=-5, uptodate=0

md/raid1:md0: Disk failure on sdb1, disabling device.

md/raid1:md0: Operation continuing on 1 devices.

RAID1 conf printout:

--- wd:1 rd:2

disk 0, wo:1, o:0, dev:sdb1

disk 1, wo:0, o:1, dev:sdc1

RAID1 conf printout:

--- wd:1 rd:2

disk 1, wo:0, o:1, dev:sdc1

sd 2:0:1:0: [sdb] Unhandled error code

sd 2:0:1:0: [sdb] Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_OK

sd 2:0:1:0: [sdb] CDB: Write(10): 2a 00 00 00 00 47 00 00 01 00

md: super_written gets error=-5, uptodate=0

md/raid1:md0: Disk failure on sdb1, disabling device.

md/raid1:md0: Operation continuing on 1 devices.

[[email protected] ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[0](F) sdc1[1]

31438720 blocks super 1.2 [2/1] [_U]

unused devices: <none>

有了故障我们就需要重建RAID1

模拟恢复,添加一块新的30G硬盘

[[email protected] ~]# fdisk -l /dev/sdb

Disk /dev/sdb: 32.2 GB, 32212254720 bytes

255 heads, 63 sectors/track, 3916 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x9b6ff607

Device Boot      Start         End      Blocks   Id  System

/dev/sdb1            2048    62914559    31456256   83  Linux

在线加入新组成单元

[[email protected] ~]# mdadm /dev/md0 -a /dev/sdb1

mdadm: added /dev/sdb1

[[email protected] ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[2] sdc1[1]

31438720 blocks super 1.2 [2/1] [_U]

[=>...................]  recovery =  7.0% (2201920/31438720) finish=2.4min speed=200174K/sec

unused devices: <none>

在日志中我们可以看到重建过程

md: bind<sdb1>

md: recovery of RAID array md0

md: minimum _guaranteed_  speed: 1000 KB/sec/disk.

md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.

md: using 128k window, over a total of 31438720k.

md: md0: recovery done.

两块30G硬盘做RAID1

时间: 2024-10-31 12:57:33

两块30G硬盘做RAID1的相关文章

普通PC用两块硬盘做raid1 并安装ubuntu server 16.04

公司为了集中管理项目数据,要求搭建一台文件服务器,通过多次尝试终于搭建完成,在此将安装过程分享给大家 特别提示:尽量用英文安装,因为中文在安装时会报错 1.进入界面后选择语言: English 然后回车 2.进入安装界面后,按F6 ,接着在按esc,右下角 删除 quiet,用all_generic_ide 替换,回车 3.选择一种语言:English 回车 4.选择你的位置: other  回车 5.选择你的地区: Asia 回车 6.选择你的国家: china 回车 7.选择 united

添加3块5G硬盘做lvm,2块新建,1块做扩展

1.在虚拟机设置里添加3快新硬盘[[email protected] ~]# lsblkNAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTsda 8:0 0 20G 0 disk├─sda1 8:1 0 1G 0 part /boot└─sda2 8:2 0 19G 0 part├─centos-root 253:0 0 17G 0 lvm /└─centos-swap 253:1 0 2G 0 lvm [SWAP]sdb 8:16 0 5G 0 disksdc 8:

在linux下做RAID1试验

RAID1试验 试验要求: 两块磁盘做raid1 破坏其中一个硬盘(做删除操作) 恢复破坏的磁盘及数据                             实现过程: 1.准备linux,配置IP,链接putty 2.查看系统信息 [[email protected]~]# uname -a Linuxlocalhost.localdomain 2.6.32-358.el6.x86_64 #1 SMP Tue Jan 29 11:47:41 EST 2013x86_64 x86_64 x86

raid5两块硬盘离线数据恢复案例

Riad数据恢复故障概述 北京某公司的一台存储挂载了raid5磁盘阵列,正常使用中存储忽然崩溃,经管理员检查发现raid5阵列中有两块硬盘离线,阵列中共两块热备盘其中一块热备盘激活失败,raid5阵列瘫痪导致存储无法使用.需要进行基于raid5磁盘阵列的数据恢复操作. Raid5阵列数据恢复检测: 硬件工程师首先对raid中两块离线硬盘进行物理检测,硬盘无物理故障,无坏道.该存储上层共一个lun用于sun小机使用,ZFS文件系统. Raid5阵列数据恢复过程 1.备份数据按照数据恢复流程对所有磁

一次HP服务器坏两块硬盘故障的恢复

周六8点正在梦中,突然一阵铃声打破寂静的夜空,哦,不是夜空,早亮天了.电话接起,告知服务器连不上了,说是昨晚拷贝数据到2点多就连不上了.没当回事,洗脸刷牙吃饭打车,到单位10点了,一看服务器傻眼了!!!上个图: 赶紧汇报,,,然后接显示器键盘鼠标,一看系统,又傻眼了!!!这个是哪把年的系统啊!!!上个图: 点不动,死机状态,也是啊5块硬盘爆两块,估计凉快了.赶紧定两硬盘,上个图,然后想咋办.呆若鸡木,静若子楚.重启系统已经启动不了了,想到使用启动光盘怎么恢复数据吧,和管理服务器的老师开始忙活,启

HP存储raid5两块硬盘离线lvm下vxfs文件系统恢复数据方案

故障描述 HP FC MSA2000存储,由于RAID5阵列中出现2块硬盘损坏并离线,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用,用户联系联系北亚数据,整个存储空间由8块450GB SAS的硬盘组成,其中7块硬盘组成一个RAID5的阵列,剩余1块做成热备盘使用. 由于存储是因为RAID阵列中某些磁盘掉线,从而导致整个存储不可用.因此接收到磁盘以后先对所有磁盘做物理检测,检测完后发现没有物理故障.接着使用坏道检测工具检测磁盘坏道,发现也没有坏道. 解决方法:

HP存储raid5两块硬盘离线lvm下vxfs文件系统恢复数据过程

故障描述 HP FC MSA2000存储,由于RAID5阵列中出现2块硬盘损坏并离线,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用,用户联系联系北亚数据,整个存储空间由8块450GB SAS的硬盘组成,其中7块硬盘组成一个RAID5的阵列,剩余1块做成热备盘使用. 由于存储是因为RAID阵列中某些磁盘掉线,从而导致整个存储不可用.因此接收到磁盘以后先对所有磁盘做物理检测,检测完后发现没有物理故障.接着使用坏道检测工具检测磁盘坏道,发现也没有坏道. 解决方法:

EMC FC AX-4存储两块硬盘离线数据恢复方法和数据恢复过程

服务器故障描述:山西某公司一台服务器的EMC FC AX-4存储RAID5磁盘阵列,阵列中共有12块硬盘组成raid5磁盘阵列其中有两块硬盘为热备盘,阵列中硬盘单盘容量为1TB,服务器中有两块硬盘离线,一块热备盘未启用.客户将服务器中所有磁盘带到数据恢复公司.通常情况下造成服务器硬盘离线的原因为磁盘物理故障或者硬盘坏道.但是由于EMC控制器有着十分严格的磁盘检查策略,容易将性能不稳定的硬盘判定为硬件故障提出raid组,所以导致服务器崩溃的原因也有可能是磁盘读写不稳定.服务器数据恢复解决过程:第一

Dell 2850服务器磁盘阵列两块硬盘离线恢复过程

服务器故障描述: 客户使用Dell 2850服务器组建了raid5磁盘阵列,阵列中包含有6块硬盘(SCSI硬盘,单盘容量300G),服务器操作系统为linux Redhat4:文件系统为ext3文件系统.在使用过程中服务器瘫痪,管理员对阵列检查后发现有两块硬盘离线,对其中一块硬盘进行了强制上线操作,但操作系统启动异常.管理员此时意识到事情的严重程度,马上对服务器进行关机,然后联系到数据恢复中心进行数据恢复. 数据恢复中心初检结论: 在服务器数据恢复工作中,raid5两块硬盘离线的情况十分常见,由