mdadm Raid5 /dev/md0 lost a disk and recovery from another machine

centos -- how to add a new disk into a mdadm raid5 /dev/md0 whick lost a /dev/sdc1 disk and  revoery at another machine?

fdisk -l

mdadm --stop /dev/md0
# to force active the raid by remaind 3 disks.
mdadm -A --force /dev/md0 /dev/sdb1 /dev/sde1 /dev/sdd1
# add a new disk into /dev/md0
mdadm --manage /dev/md0 --add /dev/sdc1 

------------------------------------------------------------------------------------------------------

we build a /dev/md0 on  a Unitek (removeable usb storadge with 4 disks inside) by mdadm software, and  mdadm -create /dev/md0 operated on a HUAWEI server,  our recovery work was done on my laptop ,and we meet many many problems during recovery.

we miss a disk --/dev/sdc1 from the raid /dev/md0, and now have a new disk -- same compable with the lost /dev/sbc1, on hand.

and then our joury is startiing

  • check /dev list

  ll /dev/

  nothing about /dev/md0 .

  • check /dev/md0 state :

  cat /proc/mdstat

Personalities :
unused devices: <none>

  ...nothing( for this is a  totally new machine to the /dev/md0 no conf file ,no superblock...)

  • we  try force mdadm to  assembly to force mdadm auto recovery itself:

     mdadm --assemble --run --force /dev/md0

 mdadm -A --force /dev/md0 /dev/sdb1 /dev/sde1 /dev/sdd1

we get "can‘t open /dev/md0 array info" or "/dev/sdb1 is busying" and many other error response info;

  • then we try add a new disk into
mdadm --manage /dev/md0 --add /dev/sdc1
mdadm: Cannot get array info for /dev/md0
  • try get into manage mode, can‘t get config file
[[email protected] dev]# mdadm --assemble /dev/md0 --scan --forcemdadm: /dev/md0 not identified in config file.
  • a key operated is coming, and lead us to a success result.
    all the steps above, we  NOT stop the /dev/md0 and get many wrong try and get many failed resulte.
mdadm --stop /dev/md0mdadm: stopped /dev/md0
[[email protected] dev]# mdadm --assemble /dev/md0 --scan --force
mdadm: /dev/md0 not identified in config file.
[[email protected] dev]# cat /proc/mdstat
Personalities :
unused devices: <none>

mdadm --force start by remain 3 disks, and add a new disk into /dev/md0, and get into recovery state.

[[email protected] dev]# mdadm -A --force /dev/md0 /dev/sdb1 /dev/sde1 /dev/sdd1
mdadm: /dev/md0 has been started with 3 drives (out of 4).
[[email protected] dev]# mdadm --manage /dev/md0 --add /dev/sdc1
mdadm: added /dev/sdc1
[[email protected] dev]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdc1[5] sdd1[0] sde1[4] sdb1[2]
      8790402048 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [U_UU]
      [>....................]  recovery =  0.0% (184776/2930134016) finish=1321.3min speed=36955K/sec
      bitmap: 0/22 pages [0KB], 65536KB chunk

unused devices: <none>

conclusion:

  • remember to stop /dev/md0 at first step, then do other operates;
  • mdadm create raid5 array, every raid array info were storaged at every physical disk , no matter how their position was changed, madadm can recognize the correct raid array info.
  • mdadm is realy a stronger sofeware at protect our data, if use correctly  we need not worry about our data‘s safety --- if only lost ONE disk, we can find them back;

-----other relate info reference

1. http://blog.csdn.net/waityoualife/article/details/5612243

时间: 2024-11-05 12:20:56

mdadm Raid5 /dev/md0 lost a disk and recovery from another machine的相关文章

XenServer 6.5 mdadm 创建软 raid5 失败的解决方案 unexpected failure opening /dev/md0

之前在 XenServer 6.2 下用的挺好的软 raid5,重装了系统到 XenServer 6.5 版,不认 raid5 了,用 mdadm 重新创建,错误提示如下: [[email protected]67 ~]# mdadm --create --verbose /dev/md0 -l 5 -n 3 -x 0 /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: layout defaults to left-symmetric mdadm: layout defa

RAID 的常用模式 及mdadm 命令的应用

一,RAID:独立磁盘冗余阵列(RAID,redundant array of independent disks)是把相同的数据存储在多个硬盘的不同的地方(因此,冗余地)的方法.通过把数据放在多个硬盘上,输入输出操作能以平衡的方式交叠,改良性能.因为多个硬盘增加了平均故障间隔时间(MTBF),储存冗余数据也增加了容错.整个 RAID 由于选择的等级(level 仅用于标识磁盘的组合方式的不同) 不同,而使得整合后的磁盘具有不同的功能, 基本常见的 level 有这几种 "RAID0(条带),

RIAD的实现,以及mdadm命令的基本用法

注  :这个博文是软RAID的实现过程,在实际生产中主要是硬来实现磁盘冗余.本博文仅供学习,和硬RAID不能实现中使用. (1)常用RAID级别的介绍(只介绍级别,原理及raid历史自行学习) 1,RAID0:条带化,没有冗余功能,磁盘的磁盘的读写速率为n倍 利用率为100%.实现条件最少2块盘 2, RAID1:镜像技术,有冗余功能,磁盘的写速率变慢,读的速率变快,利用率为1/2.实现条件最少2块盘 3, RAID4:校验码技术,有冗余功能,磁盘的利用率为n-1倍 ,利用率为n-1/n.实现条

mdadm命令详解及实验过程

一.概念 mdadm是multiple devices admin的简称,它是Linux下的一款标准的软件 RAID 管理工具,作者是Neil Brown 二.特点 mdadm能够诊断.监控和收集详细的阵列信息          mdadm是一个单独集成化的程序而不是一些分散程序的集合,因此对不同RAID管理命令有共通的语法          mdadm能够执行几乎所有的功能而不需要配置文件(也没有默认的配置文件) 三.作用 (引用) 在linux系统中目前以MD(Multiple Device

Raid及Mdadm命令_学习笔记

关于Raid及Mdadm命令的学习笔记: 课前小知识: 关于case的小脚本笔记: cat  << EOF d|D) show disk Information m|M) show Mem Information s|S) show swap Information EOF read -p "Please input Your Choice: " Choice while [ $Choice != "quit" ] do case $Choice in

mdadm详细使用手册

1. 文档信息 当前版本 1.2 创建人 朱荣泽 创建时间 2011.01.07 修改历史 版本号 时间 内容 1.0 2011.01.07 创建<mdadm详细使用手册>1.0文档 1.1 2011.01.10 增加”实验”内容 1.2 2012.04.13 删除”实验内容”                   2. mdadm的主要功能 mdadm是一个用于创建.管理.监控RAID设备的工具,它使用Linux中的md驱动. mdadm程序是一个独立的程序,能完成所有软件RAID的管理功能,

构建软RAID5磁盘阵列&RAID设备恢复

构建软RAID5磁盘阵列&RAID设备恢复 需求描述 为Linux服务器添加4块SCSI硬盘 使用mdadm软件包,构建RAID5磁盘阵列,提高磁盘存储的性能和可靠性 安装mdadm 准备用于RAID阵列的分区 -- 为Linux服务器添加4块SCSI硬盘,并使用fdisk工具个划分出一块2GB的分区依次为:/dev/sde1./dev/sdg1./dev/sdh1./dev/sdf1 -- 将其类型ID更改为"fd",对应为"Linux raid autodetec

Linux之Raid,mdadm在线详解

介绍: RAID(RedundantArry of Independent Disks)独立冗余阵列,旧称(Redundant Arry of Inexpensive Disks)廉价冗余阵列,其主要目的是将多个硬盘组成在一起来达到提高I/O.读写.冗余性 RAID实现方式: 硬RAID 1.硬件RAID通过RAID卡提供适配能力从而连接多个硬盘 2.主板中集成了RAID控制器来实现RAID的相关功能 软RAID 软件RAID则通过软件层面模拟实现RAID的相关功能. RAID的优势: RAID

CentOS mdadm RAID1实训

场景 POC环境 CentOS 7 MDADM Raid1 查看版本 #uname -a Linuxzzsrv1.bigcloud.local 3.10.0-123.el7.x86_64 #1 SMP Mon Jun 30 12:09:22 UTC 2014x86_64 x86_64 x86_64 GNU/Linux #cat /etc/redhat-release CentOSLinux release 7.0.1406 (Core) 挂载硬盘 yum 安装mdadm的支持包 #yum -y