Exadata火线救援:10TB级数据修复经典案例详解!

凌晨1点半,朦胧中电话铃狂响,某Exadata严重故障…….

离上一篇文章( 5小时数据蒸发||24小时服务降级,Salesforce的遭遇只是个案? )不远,我们又遇到了一次又一次数据救援工作。跟Salesforce巧合的是,大家都是运行在Exadata上,不幸的是Salesforce丢失了4个小时数据(后续没看到新闻稿,是否又追回了部分)业务停顿,那我今天遇到的要麻烦更多。

近期Exadata故障比较多,比较重要的是硬件生命周期所致,X2从2010年9月开始发布上线,到现在已经将近6年,就算传统“高端”小型机也到该下线的时候了。提醒使用Exadata的朋友们做好备份,否则,你可能也要经历一场难忘的救援经历。问题发生得很不可思议,又很理所当然,细节就不说了。总之比较糟糕:

存放数据文件的diskgroup不能加载(mount),celldisk状态是unknown,部分asmdisk的header是invalid的,就连它自动备份的块也是invalid的,有磁盘物理损坏,物理损坏的磁盘没有的mirror也失效了。接近10TB的数据,想想也头疼吧。再说具体数据抢救工作之前,还是提醒下使用ASM/Exadata的朋友们,至少搭建个DataGuard吧,刚好建荣也做了这方面的分享,赶紧去读读。

鉴于问题非常棘手,综合各方信息,我们做了如下的方案:

  1. 数据库 文件抽取出来
  2. 尝试open
  3. 如失败再DUL

要将数据库文件(控制文件、数据文件、 日志文件)从没有加载的磁盘组中抽取出来,需要借助于AMDU。

AMDU: ORACLE针对ASM开发的源数据转储工具,其全称为ASM Metadata Dump Utility

抽取的具体步骤:

  • 从alert日志中找到启动参数(包括控制文件),编辑成新的参数文件/tmp/pfile
  • 从pfile中找到控制文件的位置,并用amdu抽取
  • 用抽取出来的控制文件,将数据库mount起来
  • 从mount库把所有数据文件找出来,可能有2种格式
  • OMF格式(数据文件带Oracle自动生成的数字)
  • 自定义格式(手贱的),处理起来麻烦一些
  • 日志文件同上处理

抽取数据文件

第一步:抽控制文件

先从alert日志找到控制文件位置:

control_files string +DATA/exdb/controlfile/curren t.266.278946847955,

11g开始amdu不需要编译可以直接使用。到/data文件系统,开始操作

amdu -diskstring ‘/o/*/ *‘ -extract data.266

在当前目录下会生成一个DATA_266.f的文件和一个report.txt文件,DATA_266.f就是控制文件了。

第二步:找数据文件和日志文件

如果你有备份的pfile最好,如果没有,就从alert日志里去找启动的时候的初始化参数,实在没有,手工编辑一个也行,包含sga_max_size,db_name,control_file这几个参数。

然后把数据库启动到mount状态,查找数据文件和日志文件:

select name from v$datafile;

select member from v$logfile;

运气好,都是这样的(OMF格式):

+DATA/exdb/datafile/system.256.278946847955 +DATA/exdb/datafile/sysaux.257.278946847955 +DATA/exdb/datafile/undotbs1.258.39804295139 +DATA/exdb/datafile/users.259.48049295141

运气不好,可能是有这样的(自定义格式):

+DATA/exdb/datafile/users_2013084.dbf +DATA/exdb/datafile/tbs_jifen_cx_0123.dbf

对于OMF格式的,仿照抽取控制文件,一个个抽:

amdu -diskstring ‘/o/*/ *‘ -extract data.256

对于自定义格式的,要从<diskgroup>.6去抽取元数据,然后找到其对应的number

  1. amdu -extract DATA.6 -diskstring ‘o/* /DATA ‘ ,生成DATA_6.f 文件

for (( i=1; i<15; i++ ))

do

kfed read DATA_6.f blknum=$i |egrep ‘name|fnum‘>>aa.out

done

再依照OMF格式抽取方式抽取出所有数据文件。

值得一说的是,我们遭遇了一个3T的bigfile,extract消耗了将近24小时= =。--NFS挂过去的文件系统速度特别慢= =

最后对所有的文件用dbv做一次校验,有没有物理坏块。

尝试Open数据库

当到了这一步的时候,其实就跟寻常的数据库恢复类似了。 我们同样在open的时候遇到了ORA-1555、ORA-704错误。

记录下我们用到的参数和事件。

event:

隐含参数:

这里比较讨厌的是rollback segments不容易确定,因为你是mounted状态的数据库,连v$rollname都查询不了。

有两个办法来解决:

办法一,用strings去system文件里抓。

办法二,用DUL/AUL/ODU/GDUL等类似工具。相对来说这种方法得到的准确一些

把得出的SYS_UNDO.dmp导入普通用户,去除status为1和2的回滚段(还原段)后放入到上述空着的2个参数。

open的时候可能还会报ORA-1555,需要推进SCN,以upgrade模式open。

推进SCN的方法很多网友也有分享过,度娘或者谷哥都可以。这里需要重点提示后续有需要的小伙伴的是,搞了两下没起来也别灰心。这次单就推进SCN这块,我们也折腾了好长时间,甚至一度两度打算放弃准备DUL了。

先看看oradebug poke的描述:

那首先是找到SCN的内存地址:

等号后面的值,就是当前显示的SCN了,不过,由于是mount状态,所以显示为0. 将当前的SCN(从v$datafile_header#查)随手加上100万,转为十六进制,推一把看看:

再次查看就能看到SCN的值了:

然后“alter database open uprade", 不断重复尝试.......

此外还用了bbed修改块,还去删除数据字典记录.......

终于,数据库总算open了,数据回来了。

关于更详细的细节,欢迎关注后续DBA+技术沙龙主题。

DUL和Ahttp://mp.weixin.qq.com/s?__biz=MzI4NTA1MDEwNg==&mid=2650756087&idx=2&sn=126b19493ff2a87130bc9c80c2dd8112&scene=21#wechat_redirectMDU

万幸的是,没有走到最后一步,没有用DUL来抽数据,不然,以这龟速,少说也是一个星期的事情。

DUL和AMDU都是救命的稻草,我们有能力使用,不代表我们一定要去用。而且我们从不在这个时候跟客户谈收费,作为服务商我们坚持救急如救火!而这些救命工具就如同山洞里的核武器,我们希望每个客户都能做好前期规划、维护、备份和容灾,让它们静静地躺着,作为一种威慑手段就好了。

关于exadata的维护

再好的东西,你不关心它,总会出问题的,Exadata也不例外。

摘抄《Exadata专家工具箱》里的几个工具,仅供参考:

sundiag

ExaWatcher

  • Diskinfo
  • IBCardino
  • Iostat
  • Netstat
  • Ps
  • Top
  • Vmstat

Exachk

CheckHWnFWProfile

这些命令两周做一次检查还是必要的。

关于数据库运维管理工具

问题发生在别人身上的时候,我们听起来不可思议,觉得别人是不是傻啊,还是懒啊,其实不是,有的时候真是太忙太忙,忙不过来,这时候需要一套工具来帮助大家。

是的,说的就是你。还记得我们昨天的聊天么,你说,他们是不是傻啊,不做监控么,平时不去看么?我说,你要是管理几千个数据库,而你又没有合适的管理工具,一个边缘系统发生这种情况,是在所难免的。

那么什么样的数据库运维管理工具是合适的呢?

  • 数据库多维度监控
  • 日常运维场景化
  • 数据库实时性能分析
  • 应用性能追溯

这几个方面互为补充,逐渐让运维变得信手拈来。

1、数据库是一个非常专业的细分领域,传统的ITOM工具集成的监控功能往往太粗放,所以需要专业的数据库多维度监控,各项监控指标数据需要实时采集并存放,根据趋势进行告警。

就拿本案例来说,如果有对Exadata服务存活的监控,问题至少在故障发生前一星期就能得到预警,并及时处理。

2、日常运维场景化

太多的数据库意味着任何一个点的维护,都需要大量的时间消耗,因此需要集成、封装一些运维场景。比如:

  • 自动化日常数据库的巡检
  • 告警日志、跟踪日志的压缩和归档
  • 比如定时作业的维护
  • 容量趋势提醒及半自动扩容
  • 以及一些自定义的场景(一些客户几百套Data Guard的日志修复)
  • 历史数据自动归档
  • .......

有了这些功能,你是不是可以省下好多时间钻研新技术,为企业核心技能的更新换代贡献自己的能量,而不需要整天想着逃离苦海了呢。

3、数据库实时性能分析

此功能意义很大,看下面两个场景:

  • 比如一个电话打过来,小张,刚才小王说昨天下午2点22到2点30期间数据库很慢,他们自己重启了机器解决了,你分析下原因。这个时候你通常只能寄希望于dba_hist_sqlstat,但这个粒度太粗,结果就是往往没有结果;
  • 时间不要离这么久,数据库发生大量TX锁资源了,帮忙查看下源头是谁。你一去看源头进程是3456,不过人家是idle进程,是一条select语句,显然不是它锁的。

如果有一个工具,能帮你实时记录数据库的这些信息,而且不用查询数据库,而是直接读取SGA,那这一些问题都能够分分钟解决,是不是很爽?

4、应用性能追溯

有些问题,明显是应用的问题,可是如果你不明确告诉他,是哪个应用模块,哪个用户干的,你几乎就说不清楚是应用的问题。

如果运维管理工具不仅仅能够帮你发现是哪个SQL语句导致,说出program,而且能告诉你是从哪个路径爬过来的,是由哪个jar包发起,那是不是一切就显而易见了呢。让背锅的日子见鬼去吧。

那么,存在这样的数据库运维管理工具么?

答案是yes。

作者介绍  杨志洪

  • 【DBAplus社群】联合发起人,新炬网络首席布道师。Oracle ACE、OCM、《Oracle核心技术》译者。
  • 数据管理专家,拥有十余年电信、银行、保险等大型行业核心系统Oracle数据库运维支持经验,掌握ITIL运维体系,擅长端到端性能优化、复杂问题处理。现主要从事数据架构、高可用及容灾咨询服务
时间: 2024-10-20 07:04:52

Exadata火线救援:10TB级数据修复经典案例详解!的相关文章

javascript教程系列41:表格全选反选,经典案例详解

<!DOCTYPE html> <html> <head lang="en"> <meta charset="UTF-8"> <title></title> <style> * { padding: 0; margin: 0; } .wrap { width: 300px; margin: 100px auto 0; } table { border-collapse: collap

Visual C++网络编程经典案例详解 第8章 网络文件传输 使用Socket传输文件 服务器代码 程序初始化

控件初始化状态使部分控件处于禁用状态代码禁用控件 BOOL CMyDlg::OnInitDialog(){ CDialog::OnInitDialog(http://www.amjmh.com); ASSERT((IDM_ABOUTBOX & 0xFFF0) == IDM_ABOUTBOX); ASSERT(IDC_ABOUTBOX < 0xF000); CMenun* pSysMenu = GetSystemMenu(FALSE); ... //省略部分代码 SetIcon(m_hIcon

机器学习经典算法详解及Python实现---朴素贝叶斯分类及其在文本分类、垃圾邮件检测中的应用

摘要: 朴素贝叶斯分类是贝叶斯分类器的一种,贝叶斯分类算法是统计学的一种分类方法,利用概率统计知识进行分类,其分类原理就是利用贝叶斯公式根据某对象的先验概率计算出其后验概率(即该对象属于某一类的概率),然后选择具有最大后验概率的类作为该对象所属的类.总的来说:当样本特征个数较多或者特征之间相关性较大时,朴素贝叶斯分类效率比不上决策树模型:当各特征相关性较小时,朴素贝叶斯分类性能最为良好.另外朴素贝叶斯的计算过程类条件概率等计算彼此是独立的,因此特别适于分布式计算.本文详述了朴素贝叶斯分类的统计学

机器学习经典算法详解及Python实现--基于SMO的SVM分类器

原文:http://blog.csdn.net/suipingsp/article/details/41645779 支持向量机基本上是最好的有监督学习算法,因其英文名为support vector machine,简称SVM.通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解. (一)理解SVM基本原理 1,SVM的本质--分类 给定一些数据点,它们分别属于两个不同的类,现在要找到一个线性分类器把这些

【甘道夫】通过Mahout构建贝叶斯文本分类器案例详解

http://acm.hdu.edu.cn/showproblem.php?pid=1507 大致题意:在一个n*m的格子上,黑色的地方不可用,问在白色格子上最多可放多少1*2的矩阵. 思路:建图,每个白色格子与它临近的上下左右的白色格子建边,求最大匹配,答案为最大匹配/2,因为是双向图.最后输出匹配边时,当找到一组匹配边记得将该边标记,以防重复计算. #include <stdio.h> #include <algorithm> #include <set> #inc

机器学习经典算法详解及Python实现--聚类及K均值、二分K-均值聚类算法

摘要 聚类是一种无监督的学习(无监督学习不依赖预先定义的类或带类标记的训练实例),它将相似的对象归到同一个簇中,它是观察式学习,而非示例式的学习,有点像全自动分类.说白了,聚类(clustering)是完全可以按字面意思来理解的--将相同.相似.相近.相关的对象实例聚成一类的过程.机器学习中常见的聚类算法包括 k-Means算法.期望最大化算法(Expectation Maximization,EM,参考"EM算法原理").谱聚类算法(参考机器学习算法复习-谱聚类)以及人工神经网络算法

机器学习经典算法详解及Python实现--CART分类决策树、回归树和模型树

摘要: Classification And Regression Tree(CART)是一种很重要的机器学习算法,既可以用于创建分类树(Classification Tree),也可以用于创建回归树(Regression Tree),本文介绍了CART用于离散标签分类决策和连续特征回归时的原理.决策树创建过程分析了信息混乱度度量Gini指数.连续和离散特征的特殊处理.连续和离散特征共存时函数的特殊处理和后剪枝:用于回归时则介绍了回归树和模型树的原理.适用场景和创建过程.个人认为,回归树和模型树

机器学习经典算法详解及Python实现--线性回归(Linear Regression)算法

(一)认识回归 回归是统计学中最有力的工具之一.机器学习监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型.连续性而定义的.顾名思义,分类算法用于离散型分布预测,如前面讲过的KNN.决策树.朴素贝叶斯.adaboost.SVM.Logistic回归都是分类算法:回归算法用于连续型分布预测,针对的是数值型的样本,使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样可以预测连续型数据而不仅仅是离散的类别标签. 回归的目的就是建立一个回归方程用来预测目

str_replace函数的使用规则和案例详解

str_replace函数的使用规则和案例详解 str_replace函数的简单调用: <?php $str = '苹果很好吃.'; //请将变量$str中的苹果替换成香蕉 $strg = str_replace('苹果','香蕉',$str); echo $strg; ?> 输出结果为:"香蕉很好吃" 解释:在str中将"苹果"替换成"香蕉", 所以原本的$str"苹果很好吃" 被改成了 "香蕉很好吃&