详述HP EVA4400/6400/8400/P6000数据恢复解决方案

【前因】
HP EVA4400/6400/8400因接近退役,已进入高故障区间,用户往往会认为花费几十万甚至上百万购买的eva系列应该是非常稳定的,但实际上无论多么昂贵的存储设备,使用的磁盘是相同或相似的。正如eva上销量极大的部件号为454414-001的1T FATA磁盘,其实就是臭名昭彰的希捷7200.11 系列的FC版,虽然前者正品售价仍高达近4K,后者却不足400,但两者的性能和稳定性表现几乎是相同的。这些1T FATA磁盘在经历2-3年的运行后,总会出现大批量的损坏,而且往往一旦损坏,几乎很难修复。一个我遇到的最夸张的案例,108块1T FATA的EVA6400,在半年内先后损坏50多块,这是让人惊讶的,实则也是正常的(缘于希捷这款产品的设计缺陷)。
即便是使用15000rpm或10000rpm的FC磁盘,其实盘体也等同于希捷、日立等厂商的SAS磁盘(目前的EVA系列磁盘已经全部基于SAS了,即使是FC,也是通过转换电路实现SAS到FC的转换,如671148-001)。EVA是虚拟化的存储设备,平时数据会不断的迁移,加上应用通常较为繁重,所以磁盘的负载相对是较重的,也是很容易出现故障的。EVA是依靠大量磁盘的冗余空间,以及故障后rss冗余磁盘动态迁移来实现整个存储的数据保护,但随着越来越多的磁盘掉线,这种保护会接近临界,直至崩溃。
通过eva command view下的 fieldservice执行强制激活命令,一则会导致cache dirty、数据块结构不一致导致数据出现损坏。二则修复只能建立在绕开坏道区域的基础上,如果坏道无法绕开,也是徒劳。
另有一些情况:主机无法与扩展柜相连导致数据丢失,误删除vdisk等,也需要有切实的解决方案。
HP P6000系列控制器与EVA系列内部算法完全相同,不再单独提及。
【eva系列存储结构原理概述】

EVA系列存储是一款以虚拟化存储为实现目的的HP中高端存储设备,内部的结构组成完全不同于普通的基于简单RAID的存储,EVA内部称之为VRAID。包括一些资深的HP工程师,对EVA的理解其实是有误区的(也可能是HP官方的宏观描述)
EVA会对每个物理磁盘(简称为PV)进行签名(写在每个磁盘的0扇区),签名后即分配进不同的DISK GROUP。在disk group中,类似于aix 的卷管理,或HP LVM的卷管理一样,每个PV会按一定大小划分为若干存储单元(按AIX的说法,暂且称为PP吧),PP的大小为2的整数次幂,且应该在2-16M之间。
每个PV中有有限数量的PP,这些PP合起来形成整个DISK GROUP的可用空间。所有的PV按5-15组成若干组RSS(HP的官方资料中讲最小的RSS磁盘数量是6,最大应不到15,但对底层的分析得知,存在5和15个PV的RSS情况),每个RSS就是一个所谓常规RAID的冗余组,但这个冗余组不等同于常规RAID,与常规RAID相似的是,常规RAID是以磁盘为单位的RAID算法,而RSS是基于PP的RAID算法。
为提高性能,HP EVA会有倾向地轮流分配不同的RSS组,但这些RSS之间的数据存储是基于JBOD的(HP官方和很多资料上称是RAID0,或许是宏观的概念),每个RSS组成的stripe 的成员其实是不同PV中不同位置的PP。
无论RSS中成员数量有多少个,对于VRAID5,一个stripe中的PV数总是5个。对于VRAID6,一个stripe中的PV数总是6个。例如,对于VRAID5,EVA会尽可能在N个磁盘中做C(N,5)的组合情况,以期实现IO 负载均衡。
当一个RSS中某个PV离线,控制器会从同一个RSS组中其他磁盘(同一条带中已存在的PV之外)中寻找可用的PP,在逻辑上实现每个stripe的rebuild,从而保证整个存储的安全性。
当一个RSS中损坏的磁盘数量足够少时(少于等于6个),这个RSS的安全性就非常低了,这时候,EVA会合并此RSS到另一个RSS中,这样可用的冗余空间就是共享的了,空间就可以从另一个较安全的RSS中迁移过来。
为了保证有足够的空间提供冗余保护,在创建disk group时,EVA会提供一个Protection Level的保护级别,single表示用2个磁盘的空间做冗余 ,double表示用4个磁盘的空间做冗余。但这个冗余不同于hotspare,这个冗余空间仅会预留到每个PV的尾部,一则,多个磁盘,IO会更均匀,更快;二则,尾部的空间通常是质量较差的空间。

【EVA系列常见故障】
1、RSS中多个磁盘掉线,超过冗余保护级别。
2、加入新磁盘,进行数据迁移时,新磁盘存在物理故障(此时无法回退,也无法前进)。
3、VDISK 删除或EVA initialize。
4、突发性主机与存储无法连接。无法discover到存储。

【数据恢复解决原理】
eva系列最核心的结构部分来自于所有vdisk的运算pp表,这个pp map表会因为磁盘的不断迁移而迁移。所有的故障均可基于此map进行恢复。
当pp map不存在时,根据不同的条带之间的冗余关系,可有优化算法对所有PP进行条带性集合,从而形成若干组正确的条带数据,再基于文件系统结构、数据结构等特征,重组若干条带。

【数据恢复解决过程】
1、原始磁盘镜像,将EVA主机一端的连线拔出,直接连入主机hba卡上,就可以认到所有物理硬盘,之后通过专业手段(Linux下的dd,windows下的winhex等)进行磁盘镜像。因eva主机与扩展柜之间多是铜线连接,故而,可能需要在扩展柜上增加光纤收发模块,再通过光链路接入fc hba卡上。当然,也可以把所有硬盘拆下来后,放入其他光纤通道柜中进行镜像。
使用EVA扩展柜进行镜像的连接图如下:

2、通过frombyte recovery for hp eva程序进行vdisk重组,直接写入成镜像文件或目标物理磁盘。
3、按常规方式解释镜像文件或目标磁盘,迁移镜像或导出内部文件。

原文地址:https://blog.51cto.com/sun510/2449384

时间: 2024-08-26 06:15:31

详述HP EVA4400/6400/8400/P6000数据恢复解决方案的相关文章

HP EVA4400/6400/8400/P6000数据恢复方法归类整理

[引言] 本文档建立在针对HP EVA的大量测试性研究基础上,所有的细节几乎均为对EVA的破译型研究,目前全球范围内尚未发现类似资料,故可能表述方式和结论并不精确,仅为参考之用. 我们公司为研究HP EVA系列算法,花费了大量的人力物力,目前应为全国唯一的研究此项技术的公司,转载请注明来源. [前因] HP EVA4400/6400/8400因接近退役,已进入高故障区间,用户往往会认为花费几十万甚至上百万购买的eva系列应该是非常稳定的,但实际上无论多么昂贵的存储设备,使用的磁盘是相同或相似的.

北亚关于HP EVA4400/6400/8400/P6000的数据恢复解决方案

[引言]本文档建立在针对HP EVA的大量测试性研究基础上,所有的细节几乎均为对EVA的破译型研究,目前全球范围内尚未发现类似资料,故可能表述方式和结论并不精确,仅为参考之用.我们公司为研究HP EVA系列算法,花费了大量的人力物力,目前应为全国唯一的研究此项技术的公司,转载请注明来源. [前因]HP EVA4400/6400/8400因接近退役,已进入高故障区间,用户往往会认为花费几十万甚至上百万购买的eva系列应该是非常稳定的,但实际上无论多么昂贵的存储设备,使用的磁盘是相同或相似的.正如e

HP EVA4400服务器RAID信息丢失数据恢复方法

[服务器数据恢复故障分析] 在数据恢复行业中经常会遇到因为意外断电导致raid模块硬件损坏或者riad管理信息丢失等raid模块损坏导致数据丢失的情况.正常情况下服务器的raid阵列一旦创建完成后就不再对管理模块中的信息进行更改,不过raid管理模块的信息其实是可修改信息,一次或多次的意外断电是可能造成这部分信息被篡改或丢失的,断电次数过多时甚至可能导致raid卡上的元器损坏.间接导致主机失去对多块物理硬盘进行RAID管理的中间层模块.今天这个服务器就属于这种情况. [服务器数据恢复故障描述]

HP EVA8400删除VDISK后数据恢复过程分步整理

[故障描述] 某地法院一台HP EVA8400存储,2组扩展柜,物理磁盘由12个1T FATA磁盘(AG691A 454414-001)和10个300G 15K FC磁盘(AG690A 454411-001)组成,LUN数量不确定,主机环境为WINDOWS,存储法院历史案例审理材料. 因本案多方转手,所以我们也无法直接得知故障原因. [初检及分析] 1.电话初检,确定得知,数据出现故障后再未重用.通常按HP-EVA的故障可能推断,数据恢复的可靠性较高. 2.EVA主机及扩展柜正常关机,之后将所有

EVA4400存储虚拟机+数据库数据恢复成功案例

一.故障描述 整个EVA存储结构是由一台EVA4400控制器,三台EVA4400扩展柜和28块FC 300G硬盘构成的.由于两块磁盘掉线导致存储某些LUN不可用,某些LUN丢失.由于EVA4400是因为某些磁盘掉线,从而导致整个存储不可用.因此接收到磁盘以后北亚工程师先对所有磁盘做物理检测,检测完后发现没有物理故障.接着使用坏道检测工具检测磁盘坏道,发现也没有坏道.磁盘坏道检测日志如下:图一: 二.备份数据 考虑到数据的安全性以及可还原性,在做数据恢复之前需要对所有源数据做备份,以防万一操作不当

HP FC MSA2000服务器raid数据恢复成功案例

一.服务器数据恢复案例背景: HP FC MSA2000服务器空间由8块450GB SAS硬盘组成raid5磁盘阵列,一块热备盘.服务器在使用中先后有两块硬盘离线,导致服务器瘫痪,lun无法正常使用.服务器数据恢复工程师分别对服务器中所有磁盘进行物理检测和坏道检测,均无异常. 二.服务器数据恢复备份 考虑到数据的安全性以及可还原性,在做数据恢复之前需要对所有源数据做备份,以防万一其他原因导致数据无法再次恢复.使用dd命令或winhex工具将所有磁盘都镜像成文件.备份完部分数据如下图: 三.服务器

卸载/更新HP Client Security Manager失败的解决方案(解决错误1722:软件包存在问题……)

问题:当卸载较老版本/更新较老版本的HP Client Security Manager时可能会出现下图所示的错误: 解决方案:按Win+R键打开运行窗口,输入regedit回车进入注册表编辑器,依次检查以下键值是否缺失 1. HKLM\SOFTWARE\DigitalPersona\DPPT\Plugins\WindowsLogon\{81FA2D36-AFC2-4FD5-92C1-400E9F2C3213} 下应该有一个名字为TokenMask,类型为QWORD的键值 如果没有则在右边窗口右

存储linux RAID6被重建成RAID5的数据恢复解决方案

数据恢复故障描述:原存储为12块2T硬盘组成的Linux RAID6,文件系统均为EXT3,此存储上划有3个LUN,每个均为6TB大小,某天在RAID失效后,维护人员为了抢救数据,对此失效的存储重进行分配RAID,并进行了初始化.初始化进行很长时间后,维护人员察觉到情况有异,便强制停止初始化,但初始化已达到 50%以上.数据部分已被不可逆的破坏.数据恢复故障分析:故障的起因仅仅是RAID失效,维护人员随后的抢救数据过程中用11块硬盘进行重分配RAID5,并进行长时间的初始化,这对原始数据是不可逆

Oracle ASM故障数据恢复解决方案

一.故障描述ASM磁盘组掉线 ,ASM实例不能mount.ASM磁盘组有4个500G的磁盘组成,数据库和ASM软件为10.2.0.1,急需恢复oracle数据库.二.故障分析分析组成ASM磁盘组的磁盘,取出ASM元数据,对元数据进行分析:ASM存储元数据损坏,导致diskgroup无法mount.重组ASM存储空间,从ASM磁盘组中导出数据库文件,然后对数据库文件进行检测,修复.如果数据库文件完好,可以利用从ASM磁盘组中导出的数据库文件启动数据库.如果数据库文件损坏,这底层解析这些数据库文件,