SUN平台服务器光纤共享存储互斥失败导致的数据恢复

服务器数据恢复故障描述:

  • 服务器最初的设计思路为将两台SPARC SOLARIS系统通过光纤交换机共享同一存储作为CLUSTER使用,正常情况下A服务器工作,当A服务器发生故障宕机后即可将其关机然后开启B服务器进行接管。但由于服务器配置不当导致两台SERVER并未很好地对存储互斥
  • 管理员对服务器进行运维检查时开启B服务器,查到B服务器连接了一组未知的大容量磁盘,由于B服务器并未启用,处于闲置状态,所以管理员以为磁盘也是闲置的,于是将整个磁盘的某个分区做了newfs。然而这个磁盘就是那个共享存储,A服务器很快报警并宕机。
  • 管理员于是对服务器做了如下操作:首先重启A服务器但所有的文件系统均无法mount。然后执行了fsck,多数分区数据修复成功,只有在B机做过newfs的文件系统结果不理想,根目录下只有一个lost+found文件夹,里面有大量数字标号的文件。
  • 故障文件系统存储了两组ORACLE实例,原结构为UFS,约有200~400个数据文件需要恢复。

    数据恢复分析:
  • 光纤设备的共享冲突案例很多,起缘于光纤交换的灵活性。此例中,A机与B机同时对UFS这个单机文件系统进行访问是很糟糕的,两台SERVER都以想当然的独享方式对存储进行管理,A机正常管理的文件系统其实底层上已经被B机做了文件系统初始化,A机从缓冲区写入文件系统的数据也会破坏B机初始化的结果。
  • B机newfs实际上直接会作用于原先的文件系统之上,但此例与单纯的newfs会有些不同,在A机宕机之前,会有一小部分数据(包括元数据)回写回文件系统。newfs如果结构与之前的相同,数据区是不会被破坏的,同时如果有一小部分元数据存在,部分数据恢复的可能性还是存在的。
  • UFS是传统的UNIX文件系统,以块组切割,每块组分配若干固定的inode区。文件系统newfs时,如果结构与之前的相同,文件系统最重要的inode区便会全部初始化,之前的无法保留,inode管理着所有文件的重要属性,所以单纯从文件系统角度考虑,数据恢复的难度很大。好在oracle数据文件的结构性很强,同时UFS文件系统还是有一定的存储规律性,可以通过对oracle数据文件的结构重组,直接将数据文件、控制文件、日志等恢复出来。同时oracle数据文件本身会有表名称描述,也可以反向推断原来的磁盘文件名。

    数据恢复过程与结果:
  • 首先对故障的文件系统做dd备份。针对整个镜像文件做完全的oracle数据结构分析、重组。然后对部分结构太乱,无法重组的文件,参考ufs文件系统结构特征进行辅助分析。利用恢复的数据文件、控制文件在oracle平台恢复数据库。所有数据库完全恢复。

    后记:

    fsck是很致命的操作,在fsck之前最好做好备份(dd即可)。光纤存储的不互斥是非常多的数据灾难原因,方案应谨慎部署与实施。

原文地址:http://blog.51cto.com/sun510/2086773

时间: 2024-08-30 07:40:12

SUN平台服务器光纤共享存储互斥失败导致的数据恢复的相关文章

存储互斥失败导致数据丢失的数据恢复成功案例

数据恢复故障描述 需要恢复的数据是某公司的一个信息管理平台,客户使用了3台虚拟机为企业共享一台存储设备,供企业内部使用,存储了公司大量的重要数据文件.管理员在在正常工作时为该存储网络又连接了一台Windows2003服务器,结果这台存储突然无法使用了,管理员对存储进行故障排查时发现存储虚拟磁盘丢失,分区表丢失.重启该存储后故障依然没有解决.由于存储中的数据十分重要且没有备份,管理员不敢擅自进行尝试修复,只好通过数据恢复手段进行数据恢复.图片来源于网络,侵删 存储数据恢复分析 由于存储崩溃的原因并

shell脚本自动部署nignx反向代理及web服务器,共享存储

#!/bin/bash systemctl status nginx var=$? if [ $var -eq 4 ] then yum install epel-release -y if [$? -ne 0 ] then echo "epel库安装失败,无可用nginx源" else yum install nginx -y if [ $? -eq 0 ] then systemctl start nginx if [ $? -eq 0 ] then echo "ngin

Linux下搭建iSCSI共享存储详细步骤(服务器模拟IPSAN存储)

一.简介 iSCSI(internet SCSI)技术由IBM公司研究开发,是一个供硬件设备使用的.可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择.iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料. iSCSI是一种基于TCP/IP 的协议,用来建立和管理IP存储设备.主机和客户机等之间的相互连接,并创建存储区域网

电商总结(四)基于共享存储的图片服务器架构

在当前这个互联网的时代,不管何种网站,对图片的需求量越来越大,尤其在电商网站中,几乎都会面临到海量图片资源的存储.访问等相关技术问题.在对图片服务器的架构,扩展,升级的过程中,肯定也会碰到各种各样的问题,各种各样的需求.当然这并不代表,就必须得弄一个特别NB的图片服务架构,简单,高效,稳定就行.所以今天就来总结一个特别简单,高效的图片服务架构:通过共享存储的方式来实现图片服务架构. 然而,也有一些人问我,现在大型网站的图片服务器的架构已经完全不是这样的了,别人家的图片系统,比你这个牛逼多了,为啥

漫漫运维路——使用NFS构建出共享存储的LAMP平台,实现Wordpress论坛的数据同步

假设现在需要构建一个Wordpress论坛站点,为了减轻站点压力,使用两台主机用于Apache服务器,对外提供WEB服务.且此两台主机都有独立IP地址.要求用MariaDB和NFS实现两个站点之间的数据同步. 拓扑如下 如上图所示.SERVER1有两块网卡,一块负责和外网通信,一块通过S1和内网中的SERVER2和SERVER3交互.以下是各主机的地址规划 主机 地址 用途 SERVER1 Eth0:192.168.252.10 配置两台虚拟主机,都安装上Wordpress Eth1:192.1

详解 Windows Server 2012 无需共享存储的实时迁移

Windows Server 2012 无需共享存储的实时 在 Windows Server 2012(WS2012)中微软提供了其最新的虚拟化平台 - Hyper-V 3.0,依靠 WS2012 最新的 SMB(Server Message Block)协议实现了透明迁移,也就是我们常说的实时迁移,这意味着我们能够在不中断虚机运行的情况下对其进行迁移.虽然这个技术之前就能够实现,但是我们需要为之付出高昂的成本,在过去为了实现迁移我们不得不购买专用的共享存储设备,而现在 Windows Serv

在动态网络下实现分布式共享存储

http://cacm.acm.org/magazines/2014/6/175173-implementing-distributed-shared-memory-for-dynamic-networks 译者序      共享内存系统是普通单机程序开发人员熟悉的开发范式,通过简单的使用读.写命令,就能确保将我们需要的值从内存中放入和读取出来,数据的一致性等问题,在单机系统中,开发人员根本不需要考虑,比如你不需要考虑当你进行了i=i+1后,再获取i的值时,i的值可能还没有来的及变化,因为这些都

Linux 进程间通信(一)(经典IPC:消息队列、信号量、共享存储)

有3种称作XSI IPC的IPC:消息队列.信号量.共享存储.这种类型的IPC有如下共同的特性. 每个内核中的IPC都用一个非负整数标志.标识符是IPC对象的内部名称,为了使多个合作进程能够在同一IPC对象上汇聚,需要提供一个外部命名方案.因此,将每个IPC对象都与一个键相关联,将这个键(key)作为该对象的外部名.这个键的数据类型是key_t,通常在头文件<sys/types.h>中被定义为长整型,该键由内核变换成标识符. 有3种方式可以使客户进程和服务器进程在同一IPC结构上汇聚: (1)

RHEL6 搭建部署共享存储服务

搭建存储服务器 什么是存储: 存储是根据不同的应用环境通过采取合理,安全,有效的方式将数据保存到某些介质上并能保证有效的访问 一方面它是数据临时或长期驻留的物理媒介 另一方面,它是保证数据完整安全存放的方式或行为 存储就是把这两方面结合起来,向客户提供一套数据存放解决方案 存储介质: 内存(临时存储)  磁盘(永久存储) 数据存储位置: 云存储 本地 共享存储 分布式存储 存储技术分类: SCSI 小型计算机系统接口 DAS 直连式存储 NAS 网络技术存储 SAN 存储区域网络 FC 光纤通道