Unix下zfs文件系统重组RAID-5后可以这样恢复

存储做的RAID-5, SCSI硬盘,操作系统是FreeBSD,文件系统是zfs。
本案例共有12块硬盘,11块硬盘里有数据,1块硬盘是热备盘。其中第6块数据硬盘出现故障,重组时需要将其剔除。
物理盘:
物理盘是指创建RAID所用的每块独立的物理硬盘,组建RAID后,它们叫做RAID的成员盘。
去RAID化:
出现故障后,把物理盘从服务器的槽位上取下来进行检测和分析。离开了服务器的槽位,也就离开了RAID控制器,这些硬盘就称为被“去RAID化”了。
1 分析步骤
主要内容:
·初步判断RAID-5起始扇区
·块大小(条带大小)分析
·RAID-5成员盘盘序
·校验方向
·数据走向
1.1 初步判断RAID-5起始扇区
RAID起始扇区是指RAID内的数据在每块物理盘(创建RAID所用的每块独立的物理硬盘)上的起始位置。起始扇区只存在于一块物理盘,大多数情况是0扇区。找到起始扇区是第一步。本实例是用12块硬盘组成的RAID-5,第6块硬盘出现故障。恢复实例中,我们用WinHex将11块有数据的硬盘去RAID化。如图1所示。

图1
用WinHex的同步功能将11块盘定位在0扇区,可以看到11块盘中只有3块盘的0扇区有“55 AA”标志,分别是1,2,6号硬盘,如图2所示。有这个标志说明是MBR磁盘结构。


图2
接下来分析哪个硬盘是起始扇区。我们先来看第6块硬盘。第6块硬盘的结尾显示这是一个GPT头备份并且只有128MB大小。如图3所示。

图3
剩下的1号磁盘和2号磁盘中0扇区有起始扇区或校验。这是初步判断起始扇区。
1.2 块大小(条带大小)分析
条带也称块,它是RAID处理数据的基本单元,不同的RAID条带大小有所不同。分析条带大小的方法有很多,一个校验区的大小是一个条带的大小,根据这一点,我们针对这个RAID-5实例做分析。此实例使用的是zfs文件系统,用WinHex同步显示11块物理盘的某个扇区,比如53654656扇区,发现此扇区只有1号盘跟其他盘显示的不一样,这是位于1号盘的校验区。顺着1号盘53654656扇区上下寻找,找到连续的128个扇区。这128个扇区就是这个RAID-5的条带大小。由此条带大小定位结束。
1.3 RAID-5成员盘盘序
以上内容说的1号盘指的不是RAID的第一个盘,也就是说物理盘的顺序并不一定是RAID的顺序,需要人工校验。用WinHex同步定位11块硬盘的53654656扇区。发现1号盘与其他盘不同,这个是1号盘的校验区。接着分析1号盘的下一个条带,即53654656+128=53654784扇区,得出2号盘跟其他盘不同,所以2号盘从53654784扇区开始的条带是校验区。以此方式继续下去,接着是3号盘的校验区,4号盘的校验区……得出的校验区如图4所示,“P”字母即表示校验区。我们按照校验区的位置,即可得到盘序,而这个实例的盘序正好是从1号盘开始依次递增的。盘序我们已经得出,又因分析步骤1得出1号盘和2号盘的0扇区为起始扇区或为校验区。对于左结构来说,0扇区是起始扇区的物理盘一定是RAID-5的1号盘,对于右结构来说,0扇区是起始扇区的物理盘一定是RAID-5的2号盘。


图4
1.4 校验方向
RAID-5的基本结构有左同步、左异步、右同步、右异步。左和右是对校验方向来说的,区别如表1和表2所示。我们做的RAID-5实例很明显是右走向的。

表1
我们由上文校验区的走向得出整个RAID-5的校验方向,即右方向,如图4所示。左同步、左异步结构中的校验块都是从最后一块物理盘开始,右同步、右异步结构中的校验快都是从第一块物理盘开始。
判断校验方向的方法有两种,一种是先分析起始扇区,再分析条带大小,然后是盘序,盘序分析后校验方向很容易就看出来了。另一种,如果盘序没有确定下来,只确定了起始扇区和条带大小,可以采用反推法。使用反推法分析,在盘序还没有确定下来的情况下,有这个校验区可以算出某个盘中第一个校验区是第几个条带。具体方法如下找到某个校验区,比如3号盘的53654912扇区,用这个扇区对条带大小与盘数的乘积取余。即53654912MOD(128*12)=256。计算的结果等于256,表示256号扇区是校验。而位于此扇区的3号盘处于第3个条带,并且是第3个条带的开始扇区,包括256号扇区在内的以后的128个扇区是3号盘的第一个校验区。接着判断1号盘下一个条带,1号盘下一个条带显示3号盘是校验区。接着判断3号盘下一个条带,3号盘下一个条带显示3号盘是校验区。由此校验方向也能得出来。
1.5 数据走向
同步异步说的是数据的走向。异步结构中,各条带组内的数据块均由低号盘向高号盘依次写入。同步结构中,每个条带组内第一个数据块写在校验块所在物理盘的下一个物理盘,若后面还有物理盘,则顺序往后写,若校验块所在物理盘后没有物理盘,则从校验块所在物理盘前面的物理盘开始从低号盘向高号盘顺序写入。

表2

以下是RAID-5实例分析过程(已确定此RAID-5是右结构)。
·从“数据块A”入手。如图5所示。

图5

首先查看“数据块A”末尾扇区的数据,然后再查看“数据块B”和“数据块C”开始扇区的数据。如果“数据块A” 末尾扇区的数据能够与“数据块B” 开始扇区的数据衔接,则该RAID-5属于异步结构。如果“数据块A” 末尾扇区的数据能够与“数据块C” 开始扇区的数据衔接,则该RAID-5属于同步结构。
·从“数据块A”入手。如图6所示。

图6
首先查看“数据块A”末尾扇区的数据,然后再查看“数据块B”和“数据块C”开始扇区的数据。如果“数据块A” 末尾扇区的数据能够与“数据块B” 开始扇区的数据衔接,则该RAID-5属于异步结构。如果“数据块A” 末尾扇区的数据能够与“数据块C” 开始扇区的数据衔接,则该RAID-5属于同步结构。
·从“数据块A”入手。如图7所示。

图7
首先查看“数据块A”末尾扇区的数据,然后再查看“数据块B”和“数据块C”开始扇区的数据。如果“数据块A” 末尾扇区的数据能够与“数据块B” 开始扇区的数据衔接,则该RAID-5属于同步结构。如果“数据块A” 末尾扇区的数据能够与“数据块C” 开始扇区的数据衔接,则该RAID-5属于异步结构。
·从“数据块A”入手。如图8所示。

图8
首先查看“数据块A”末尾扇区的数据,然后再查看“数据块B”和“数据块C”开始扇区的数据。如果“数据块A” 末尾扇区的数据能够与“数据块B” 开始扇区的数据衔接,则该RAID-5属于异步结构。如果“数据块A” 末尾扇区的数据能够与“数据块C” 开始扇区的数据衔接,则该RAID-5属于同步结构。
2 重组RAID-5
上面内容我们已经解析出RAID-5的一些重要信息,根据这些信息,我们就可以重组RAID-5了。下面我们用UFS Explorer工具打开并添加这11块硬盘。如图9所示。

图9
将1.dsk添加到了左侧Connected storages里,如图10所示。

图10

把RAID-5的10块盘都添加进去。点击Build RAID选项,依照RAID-5的盘序把10块盘都添加进去,开始组建RAID-5,如图11所示。

图11
第6块盘因为出现故障,所有要剔除,并在其位置添加时补一个空缺,并继续顺序添加完其它硬盘。如图12所示,点击标红框位置处的按钮,添加空缺硬盘。

图12
接着选择校验方向和数据走向,本实例条带大小为28个扇区,即65KB,右异步结构。因此设置如图13所示。

图13
接着点击Build按钮,出现如图14所示。点击find查找,选择zfs文件系统。

图14
出现了如图15所示的正在组建的RAID-5。

图15

时间: 2024-10-11 01:32:39

Unix下zfs文件系统重组RAID-5后可以这样恢复的相关文章

Unix下zfs文件系统重组RAID-5恢复方法

存储做的RAID-5, SCSI硬盘,操作系统是FreeBSD,文件系统是zfs. 本案例共有12块硬盘,11块硬盘里有数据,1块硬盘是热备盘.其中第6块数据硬盘出现故障,重组时需要将其剔除. 物理盘: 物理盘是指创建RAID所用的每块独立的物理硬盘,组建RAID后,它们叫做RAID的成员盘. 去RAID化: 出现故障后,把物理盘从服务器的槽位上取下来进行检测和分析.离开了服务器的槽位,也就离开了RAID控制器,这些硬盘就称为被"去RAID化"了. 1 分析步骤 主要内容: ·初步判断

pppcloud云主机下linux环境变量设置错误后,如何恢复解决方案

linux环境变量设置错误后,如何恢复解决方案:在命令行中输入:export PATH=/usr/bin:/usr/sbin:/bin:/sbin:/usr/X11R6/bin 后回车/etc /profile:此文件为系统的每个用户设置环境信息,当用户第一次登录时,该文件被执行.并从/etc/profile.d目录的配置文件中搜集 shell的设置./etc/bashrc:为每一个运行bash shell的用户执行此文件.当bash shell被打开时,该文件被读取.~/.bash_profi

UNIX下获取前一天后一天的日期

在Linux下很容易解决这个问题 date  +"%Y%m%d" -d  "+n days"         今天的后n天日期 date  +"%Y%m%d" -d  "-n days"         今天的前n天日期 在UNIX下没有'-d'选项,所以无法使用上面的方法 网上看到有一种通过时区进行调整echo `TZ=aaa16 date +%Y%m%d\ %H:%M:%S` 注意:date打印的并不是本地时区的时间,而是

遇到ZFS文件系统如此棘手的问题,这种办法简单又高效!

一.ZFS文件系统ZFS是一款128bit文件系统,总容量是现有64bit文件系统的1.84x10^19倍,其支持的单个存储卷容量达到16EiB(2^64byte,即 16x1024x1024TB):一个zpool存储池可以拥有2^64个卷,总容量最大256ZiB(2^78byte):整个系统又可以拥有2^64个存储 池.可以说在相当长的未来时间内,ZFS几乎不太可能出现存储空间不足的问题.另外,它还拥有自优化,自动校验数据完整性,存储池/卷系统易管理等诸多优点.较ext3系统有较大运行速率,提

光纤存储重组raid磁盘阵列和raid数据恢复成功案例

今天我给大家分享的是一篇关于raid磁盘阵列数据恢复的案例,本案例中包含了对磁盘阵列的修复和重组过程,raid数据恢复中的方法比较通用,希望在数据恢复方面对大家有所帮助. Raid阵列情况介绍: 需要进行数据恢复的阵列搭建在一台某品牌的S5020型号光纤存储上.这个磁盘阵列中一共包含了14块硬盘,其中10号硬盘和13号硬盘出现了故障警报,卷也无法挂载,存储无法继续工作,需要对存储进行数据恢复并修复其中的数据库. 开始恢复raid磁盘阵列: 通过storage manager连接这台存储设备进行查

无硬件Raid卡的情况下,在软raid上安装CentOS

记得在YY看过一次公开课,内容是在没有硬件RAID卡情况下,在软RAID上安装操作系统,当一块磁盘挂掉的时候不会造成整个系统崩溃(RAID1):个人觉得蛮好玩,然后今天自己安装试了下,下面是操作过程,因为有点强迫症,所以把整个过程都截图下来了: 实验环境: VMware Workstation 10.0 CentOS 6.4 X64 在添加虚拟机的时候,我给虚拟机添加了两块120G的硬盘: 1,插入光盘开机,使用图形界面安装系统: 2,跳过安装介质检查 3,Next 4,选择安装语言 5,选择键

16.文件系统——软RAID的实现(三)(RAID5、装配RAID、JBOD)

一.RAID5的实现过程 前文介绍了软RAID0和软RAID1创建过程,本文将演示一个大小为2G的软RAID5的实现过程. 由于RAID5至少需要3块盘,其中有一块盘作为备份,因此只有两块盘是真正用来存放数据的,故这三块盘的大小都必须为1G,才能保证有效使用空间为2G. 在创建带热备份的RAID1时,已经使用了3块盘,现在可以先将这三块盘停止使用,然后用来创建RAID5: [[email protected] ~]# umount /mnt # 卸载设备/dev/md1 [[email prot

14.文件系统——软RAID的实现(一)(mdadm,RAID0,主次设备号)

前文中介绍过,软RAID其实是通过md来实现的,它本质上是一个程序,用来模拟RAID.它依赖于CPU完成,需要占用大量的CPU时钟周期,所以性能不会太好:并且它完全依赖于当前操作系统,所以一旦操作系统损坏,则很有可能影响到该RAID的使用,因此在生产环境中,不建议使用软RAID.这里仅对软RAID的实现方式作一些简单的介绍. md模块可以基于任何块设备来创建,也就意味着它可以使用一个完整的分区来创建,例如使用/dev/sdb5和/dev/sdb6来实现RAID1:它可以在/dev/md0和/de

优就业开发教程-精通Unix下C语言编程与项目实践

当前软件业开发工具日新月异,从C到C++,从Java到.net,新构架.新组件层出不穷,今天刚学习到的知识,也许明天就已经过时了.要想在激烈的竞争中站稳脚跟,在知识大爆炸中跟上时代的步伐,软件开发者一般会有两种应对方式: 1. 疯狂的学习,每天恶补新知识以适应知识发展的需要. 2. 打牢基础,选择一个相对稳定的平台和相对稳定的开发语言,以不变应万变. 在Unix下C语言编程是一种相对稳定的开发平台下的开发语言,掌握了它,就可以轻松完成当前Unix服务器下疯狂增长的各式各样的功能需求. 为什么选择