服务器软硬磁盘阵列

概述:

  RAID( Redundant Array of Inexpensive Disks)称为廉价磁盘冗余阵列。 RAID 的基本思想是把多个便宜的小磁盘组合到一起,组合为一个大磁盘组,使性能达到或超过一个容量巨大、价格昂贵、读写速度快的磁盘。

  目前 RAID 技术主要分为两种:基于硬件(服务器 RAID 控制器)的技术和基于软件的RAID 技术。在 Linux 系统中通过自带的软件就能模拟实现 RAID 功能,这样可省去购买昂贵的硬件 RAID 控制器的费用,便可极大地增强磁盘的 IO 性能和可靠性。由于是用软件去模拟实现的 RAID 功能,所以它的配置灵活、管理方便。同时使用软件 RAID,还可以实现将几个物理磁盘合并成一个更大的虚拟设备,从而达到性能改进和数据冗余的目的。当然基于硬件的 RAID 解决方案比基于软件 RAID 技术在性能上会胜一筹,具体表现在检测和修复多位错误的能力、错误磁盘自动检测和阵列重建等方面。在本章将详细讲述如何在Linux 服务器上创建及维护软 RAID。

RAID 级别介绍

  随着 RAID 技术经过不断的发展,现已有 RAID 0 到 RAID 6 七种基本的 RAID 级别,同时还有 RAID 0+RAID 1 的组合形式,称为 RAID10,还有 RAID 0+RAID 5 的组合形式,称为 RAID50。当然级别并不能代表技术的高低,其中 RAID 2-RAID 4 基本上不再使用了。目前这些常用的 RAID 级别 Linux 内核都能够支持,本节以 Linux 2.6 以上的内核为例,在 Linux 2.6 内核中的软 RAID 可支持以下级别: RAID 0、 RAID 1、RAID 4、 RAID 5以及 RAID 6 等。 Linux 2.6 的内核除支持以上几种 RAID 级别外,还可支持 LINEAR(线性模式)的软 RAID,线性模式是将两个或更多的磁盘组合到一个物理设备中,磁盘不必具有相同的大小,在写入 RAID 设备时会首先填满磁盘 A,然后是磁盘 B,以此类推。

RAID 0

  也称为条带模式(striped),即把连续的数据分散到多个磁盘上存取。当系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用磁盘总线的带宽,显著提高磁盘整体存取性能。因为读取和写入是在设备上并行完成的,读取和写入性能将会增加,这通常是运行 RAID 0 的主要原因。但RAID 0 没有数据冗余,如果其中一个硬盘出现故障,那么将无法恢复任何数据。

RAID 1

  RAID 1 又称为镜像( Mirroring),一个具有全冗余的模式。 RAID 1 可以用于两个或2xN 个磁盘,并使用 0 块或更多的备用磁盘,每次写数据时会同时写入镜像盘。这种阵列可靠性很高,但其有效容量会减小到总容量的一半, 同时这些磁盘的大小应该相等,否则总容量只具有最小磁盘的大小。

RAID 4

  创建 RAID 4 需要三块或更多的磁盘,它在一个磁盘上保存校验信息,并以 RAID 0 方式将数据写入其它磁盘。因为一块磁盘是为校验信息保留的,所以阵列的空间大小是( N-l)*S,其中 S 是阵列中最小磁盘的大小。就像在 RAID 1 那样,磁盘的大小应该相等。如果一个磁盘出现故障,那么可以使用校验信息及另一个磁盘来重建数据。如果两个磁盘出现故障,那么所有数据都将丢失。不经常使用这个级别的原因是校验信息存储在一个磁盘上。每次写入其它磁盘时,都必须更新这些信息。因此,在大量写入数据时很容易造成校验磁盘的瓶颈,所以目前这个级别的 RAID 很少使用了。

RAID 5

  在希望结合大量物理磁盘并且仍然保留一些冗余时, RAID 5 可能是最有用的 RAID 模式。 RAID 5 可以用在三块或更多的磁盘上,并使用 0 块或更多的备用磁盘。就像 RAID 4一样,RAID5 设备的大小是(N-1)*S。RAID5 与 RAID4 之间最大的区别就是校验信息均匀分布在各个驱动器上,这样就避免了 RAID 4 中出现的瓶颈问题。如果其中一块磁盘出现故障,那么由于有校验信息,所以所有数据仍然可以保持不变。如果可以使用备用磁盘,那么在设备出现故障之后,将立即开始往备用磁盘上同步数据。如果两块磁盘同时出现故障,那么所有数据都会丢失。

RAID 6

  RAID 6 是在 RAID 5 基础上扩展而来的。与 RAID 5 一样,数据和校验码都是被分成数据块然后分别存储到磁盘阵列的各个硬盘上。只是 RAID 6 中多增加一块校验磁盘,用于备份分布在各个磁盘上的校验码,这样 RAID 6 磁盘阵列就允许两个磁盘同时出现故障,所以 RAID 6 的磁盘阵列最少需要四块硬盘。

RAID1+0

  N(偶数,N>=4)块盘两两镜像后,在组合成一个 RAID 0。容量为 N/2,N/2 块盘同时写入,写速度一般,N 快盘同时读取,读速度较快。性能高,可靠性高。

创建软 RAID

  在 Linux 服务器中可通过 mdadm 工具来创建和维护软 RAID 的, mdadm 在创建和管理软 RAID 时非常方便,而且很灵活。 mdadm 常用的参数有如下:

  -C --create:创建一个软 RAID,后面需要标识 RAID 设备的名称。例如,/dev/md0,/dev/md1
  -A --assemble:加载一个已存在的 RAID,后面跟 RAID 以及设备的名称。
  -D --detail:输出指定 RAID 设备的详细信息。
  -S --stop:停止指定的 RAID 设备。
  -l --level:指定 RAID 配置级别,例如,设置“--level=5”则表示创建阵列的级别是 RAID 5。
  -n --raid-devices:指定 RAID 中活动磁盘的数目。
  -r --remove:删除 RAID 中的某个磁盘
  -a --add:向 RAID 中添加磁盘-s --scan:扫描配置文件/proc/mdstat 来搜索软 RAID 的配置信息,该参数不能单独使用,需要配合其它参数才能使用。

  在实际生产环境中,系统硬盘与数据库和应用是分开的,这样有利于系统的维护和对数据应用的使用,磁盘阵列可以在安装系统之前或之后产生,系统会视之为一个(大型)硬盘,而它具有容错及冗余的功能。磁盘阵列不单只可以加入一个现成的系统,它更可以支持容量扩展,方法也很简单,只需要加入一个新的硬盘并执行一些简单的指令,系统便可以实时利用这新加的容量。

RAID 的种类及应用

  IDE 和 SCSI 是计算机的两种不同的接口,前者普遍用于 PC 机,后者一般用于服务器。基于这两种接口,RAID 分为两种类型:基于 IDE 接口的 RAID 应用,称为 IDE RAID;而基于 SCSI接口的 RAID 应用则相应称为 SCSI RAID。

基于不同的架构,RAID 又可以分为:
  ● 软件 RAID (软件 RAID)
  ● 硬件 RAID (硬件 RAID)
  ● 外置 RAID (External RAID)

  软件 RAID 很多情况下已经包含在系统之中,并成为其中一个功能,如 Windows、Netware及 Linux。软件 RAID 中的所有操作皆由中央处理器负责,所以系统资源的利用率会很高,从而使系统性能降低。软件 RAID 是不需要另外添加任何硬件设备,因为它是靠你的系统,主要是中央处理器的功能提供所有现成的资源。

  硬件 RAID 通常是一张 PCI 卡,你会看到在这卡上会有处理器及内存。因为这卡上的处理器已经可以提供一切 RAID 所需要的资源,所以不会占用系统资源,从而令系统的表现可以大大提升。硬件 RAID 可以连接内置硬盘、热插拔背板或外置存储设备。无论连接何种硬盘,控制权都是在 RAID 卡上,亦即是由系统所操控。在系统里,硬件 RAID PCI 卡通常都需要安驱动程序,否则系统会拒绝支持。

  外置式 RAID 也是属于硬件 RAID 的一种,区别在于 RAID 卡不会安装在系统里,而是安装在外置的存储设备内。而这个外置的储存设备则会连接到系统的 SCSI 卡上。系统没有任何的 RAID 功能,因为它只有一张 SCSI 卡;所有的 RAID 功能将会移到这个外置存储里。好处是外置的存储往往可以连接更多的硬盘,不会受系统机箱的大小所影响。而一些高级的技术,如双机容错,是需要多个服务器外连到一个外置储存上,以提供容错能力。

环境描述:

  LINUX 服务器中添加 1 块 100G 空闲的硬盘,划分 4 个 20G 的分区用来练习创建一个RAID 5 及其后期维护操作。

配置过程:

安装前准备配置:

[[email protected] ~]# cat /etc/redhat-release
CentOS release 6.6 (Final)
[[email protected] ~]# uname -r
2.6.32-504.el6.x86_64
[[email protected] ~]# uname -m
x86_64
[[email protected] ~]# rpm -q mdadmmdadm-3.3-6.el6.x86_64

创建 4 个 个 20G  的分区:

  首先使用“fdisk”命令在硬盘上创建 4 个分区,操作如下:

[[email protected] ~]# fdisk /dev/sdb
Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel
Building a new DOS disklabel with disk identifier 0x8f67b364.
Changes will remain in memory only, until you decide to write them.
After that, of course, the previous content won‘t be recoverable.
Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)
WARNING: DOS-compatible mode is deprecated. It‘s strongly recommended to
switch off the mode (command ‘c‘) and change display units to
sectors (command ‘u‘).
Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 1
First cylinder (1-13054, default 1):
Using default value 1
Last cylinder, +cylinders or +size{K,M,G} (1-13054, default 13054): +20G
Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 2
First cylinder (2613-13054, default 2613):
Using default value 2613
Last cylinder, +cylinders or +size{K,M,G} (2613-13054, default 13054): +20G
Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 3
First cylinder (5225-13054, default 5225):
Using default value 5225
Last cylinder, +cylinders or +size{K,M,G} (5225-13054, default 13054): +20G
Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Selected partition 4
First cylinder (7837-13054, default 7837):
Using default value 7837
Last cylinder, +cylinders or +size{K,M,G} (7837-13054, default 13054): +20G
Command (m for help): p
Disk /dev/sdb: 107.4 GB, 107374182400 bytes
255 heads, 63 sectors/track, 13054 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x8f67b364
Device Boot Start End Blocks Id System
/dev/sdb1 1 2612 20980858+ 83 Linux
/dev/sdb2 2613 5224 20980890 83 Linux
/dev/sdb3 5225 7836 20980890 83 Linux
/dev/sdb4 7837 10448 20980890 83 Linux
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.
[[email protected] ~]# partprobe /dev/sdb

创建 RAID5

  创建完/dev/sdb1、 /dev/sdb2、 /dev/sdb3、 /dev/sdb4 四个分区后,下面就可以创建RAID 5 了,其中设定/dev/sdb4 作为备用磁盘,其余为活动磁盘,备用磁盘的作用是一旦某一设磁盘损坏可以立即使用备用磁盘替换。操作命令如下:

[[email protected] ~]# mdadm --create /dev/md5 --level=5 --raid-devices=3 --spare-devices=1 /dev/sdb[1-4]
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.

  其中“--spare-devices=1”表示当前阵列中备用设备只有一块,即作为备用设备的“/dev/sdb4”,若有多块备用设备,则将“--spare-devices”的值设置为相应的数目。成功创建完成 RAID 设备后,通过如下命令可以查看到 RAID 的详细信息:

[[email protected] ~]# mdadm --detail /dev/md5
/dev/md5:
              Version : 1.2
    Creation Time : Tue Oct 18 22:59:32 2016
          Raid Level : raid5
           Array Size : 41928704 (39.99 GiB 42.93 GB)
    Used Dev Size : 20964352 (19.99 GiB 21.47 GB)
       Raid Devices : 3
      Total Devices : 4
         Persistence : Superblock is persistent
        Update Time : Tue Oct 18 23:01:01 2016
                    State : clean, degraded, recovering

        Active Devices : 2
    Working Devices : 4
        Failed Devices : 0
        Spare Devices : 2
                    Layout : left-symmetric
             Chunk Size : 512K
        Rebuild Status : 14% complete
                      Name : localhost.localdomain:5 (local to host localhost.localdomain)
                        UUID : 307f1234:08c3d0ec:c31390d1:cbbecfc9
                     Events : 3
    Number Major Minor   RaidDevice     State
    0             8     17         0                 active sync /dev/sdb1
    1             8     18         1                 active sync /dev/sdb2
    4             8     19         2                 spare rebuilding /dev/sdb3
    3             8     20         -                  spare /dev/sdb4

创建 RAID 的配置文件

  RAID 的配置文件名为“mdadm.conf”,默认是不存在的,所以需要手工创建,该配置文件存在的主要作用是系统启动的时候能够自动加载软 RAID,同时也方便日后管理。“mdadm.conf”文件内容包括:由 DEVICE 选项指定用于软 RAID 的所有设备,和 ARRAY 选项所指定阵列的设备名、 RAID 级别、阵列中活动设备的数目以及设备的 UUID 号。生成RAID 配置文件操做如下:

[[email protected] ~]# mdadm --detail --scan > /etc/mdadm.conf

  但是当前生成“mdadm.conf”文件的内容并不符合所规定的格式,所以也是不生效的,这时需要手工修改该文件内容为如下格式:

[[email protected] ~]# vim /etc/mdadm.conf
DEVICE /dev/sdb1 /dev/sdb2 /dev/sdb3 /dev/sdb4
ARRAY /dev/md5 metadata=1.2 spares=1 name=localhost.localdomain:5
UUID=307f1234:08c3d0ec:c31390d1:cbbecfc9

  如果没有创建 RAID 的配置文件,那么在每次系统启动后,需要手工加载软 RAID 才能使用,手工加载软 RAID 的命令是:

[[email protected] ~]# mdadm --assemble /dev/md5 /dev/sdb1 /dev/sdb2 /dev/sdb3 /dev/sdb4

创建文件系统

  接下来就只需要在 RAID 设备上创建文件系统就可使用了,在 RAID 设备上创建文件系统和在分区或磁盘上创建文件系统的方法一样。在设备“/dev/md5”上创建 ext4 的文件系统命令如下:

[[email protected] ~]# mkfs.ext4 /dev/md5
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10482176 blocks
524108 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:

  创建完文件系统后,将该设备挂载上就可正常的使用了。如果要创建其它级别的 RAID,其步骤和创建 RAID 5 基本都一样,区别在于指定“--level”值的时候,需要将该值设置为相应的级别。

  设置开机自动挂载,在/etc/fstab 中加入下面一行:

/dev/md5 /data ext4 defaults 0 0

  挂载测试

[[email protected] ~]# umount /dev/md5
[[email protected] ~]# mount /dev/md5
[[email protected] ~]# mount | tail -1
/dev/md5 on /data type ext4 (rw)

维护软RAID

  软 RAID 虽然很大程度上能保证数据的可靠性,但是在日常的工作中,有时可能需要对 RAID进行调整以及不排除 RAID 设备物理介质损坏的可能等相关问题,当遇到这些情况时,那么同样可以通过“mdadm”命令来完成这些操作。下面也将通过一个实例来介绍更换 RAID 故障磁盘的完整过程。

1、模拟故障磁盘
  假设其中的“/dev/sdb2”设备出现故障时,更换一个新的磁盘,整个过程的详细说明如下:
  在实际中,当软 RAID 检测到某个磁盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作,所以这里需要将/dev/sdb2 标记为出现故障的磁盘,命令如下:

[[email protected] ~]# mdadm /dev/md5 --fail /dev/sdb2
mdadm: set /dev/sdb2 faulty in /dev/md5

  由于 RAID 5 设置了一个备用设备,所以当有标记为故障磁盘的时候,备用磁盘会自动顶替故障磁盘工作,阵列也能够在短时间内实现重建。通过“/proc/mdstat”文件可查看到当前阵列的状态,如下:

[[email protected] ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdb3[4] sdb4[3] sdb2[1](F) sdb1[0]
41928704 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [U_U]
[==>..................] recovery = 11.9% (2503664/20964352) finish=10.0min
speed=30455K/sec
unused devices: <none>

  以上信息表明阵列正在重建, 当一个设备出现故障或被标记故障时,相应设备的方括号后将被标以(F),如“sdc1[4](F)”,其中“[3/2]”的第一位数表示阵列所包含的设备数,第二位数表示活动的设备数,因为目前有一个故障设备,所以第二位数为 2;这时的阵列以降级模式运行,虽然该阵列仍然可用,但是不具有数据冗余;而“[U_U]”表示当前阵列可以正常使用的设备是/dev/sdb1 和/dev/sdb3,如果是设备“/dev/sdb1”出现故障时,则将变成[_UU]。

  重建完数据后,再次查看阵列状态时,就会发现当前的 RAID 设备又恢复了正常,如下:

[[email protected] ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdb3[4] sdb4[3] sdb2[1](F) sdb1[0]
41928704 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>

移除故障磁盘

  既然“/dev/sdb2”出现了故障,当然要移除该设备,移除故障磁盘的操作如下:

[[email protected] ~]# mdadm /dev/md5 --remove /dev/sdb2
mdadm: hot removed /dev/sdb2 from /dev/md5

  其中“--remove”表示移除指定 RAID 设备中的某个磁盘,也可用“-r”来代替该参数。

添加新硬盘

  在添加新的硬盘前,同样需要对新硬盘进行创建分区的操作,例如,添加新硬盘的设备名为“/dev/sdb2”,则具体操作如下:

[[email protected] ~]# mdadm /dev/md5 --add /dev/sdb2
mdadm: added /dev/sdb2

  其中“--add”与前面的“--remove”其义刚好相反,用于将某个磁盘添加到指定的设备中,也可用“-a”代替该参数。

  由于 RAID 5 设置了一个备用设备,所以不需要做任何操作 RAID 5 也能正常运行,但是如果这时某块磁盘再出现故障的话,会导致 RAID 5 没有数据冗余功能,这对于存放重要的数据的设备来说显得太不安全了。那么这时增加到 RAID 5 中的“/dev/sdb2”则作为备用设备出现在阵列中,如下:

[[email protected] ~]# mdadm --detail /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Tue Oct 18 22:59:32 2016
Raid Level : raid5
Array Size : 41928704 (39.99 GiB 42.93 GB)
Used Dev Size : 20964352 (19.99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Tue Oct 18 23:45:36 2016
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : localhost.localdomain:5 (local to host localhost.localdomain)
UUID : 307f1234:08c3d0ec:c31390d1:cbbecfc9
Events : 39
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
3 8 20 1 active sync /dev/sdb4
4 8 19 2 active sync /dev/sdb3
5 8 18 - spare /dev/sdb2

测试:

[[email protected] ~]# hdparm -t /dev/md5
/dev/md5:
Timing buffered disk reads: 1314 MB in 3.00 seconds = 437.64 MB/sec
[[email protected] ~]# hdparm -t /dev/sda
/dev/sda:
Timing buffered disk reads: 58 MB in 3.00 seconds = 19.32 MB/sec

阵列卡介绍(raid 控制器 )

  阵列卡就是用来实现 RAID 功能的板卡,通常是由 I/O 处理器、硬盘控制器、硬盘连接器和缓存等一系列零组件构成的。

  不同的 RAID 卡支持的 RAID 功能不同,例如支持 RAID 0、RAID 1、RAID 5、RAID 6、RAID10 等,RAID 卡的接口类型:IDE 接口、SCSI 接口、SATA 接口和 SAS 接口。

  缓存(Cache)是 RAID 卡与外部总线交换数据的场所,RAID 卡先将数据传送到缓存,再由缓存和外边数据总线交换数据。它是 RAID 卡电路板上的一块存储芯片,与硬盘盘片相比,具有极快的存取速度。

  缓存的大小与速度是直接关系到 RAID 卡的实际传输速度的重要因素,大缓存能够大幅度地提高数据命中率从而提高 RAID 卡整体性能。不同的 RAID 卡出厂时配置的内存容量不同,一般为几兆到数百兆容量不等

硬 RAID 创建 步骤

DELL 0 R710 服务器案例 :
1、开机等待出现以下界面后看屏幕提示,准备按组合键(DELL :Crtl+R IBM:Crtl+H)进入raid 配置界面

2、当 dell 界面过去后屏幕会有相关组合键提示,同时按下 ctrl + r 进入 raid 配置界面,根据经验建议多按几次,进入到如下的配置界面,在图的右侧可以看到默认为 raid 5,磁盘大小等信息。

3、使用上下键移动到第二行的位置按下 F2,出现以下窗口,选择第二项( Delet Disk Group)然后回车,删除 raid5

出现确认窗口,选择 yes 确认。

4、删除 raid 5 后的状态:

5、然后按 F2 选择第一项(Create New VD)创建新的 RAID

6、进入到下面的界面,蓝色体的为选中状态,此时光标移动到 RAID level 那一栏,继续回车

7、此时出现三个选项,分别是 RAID-0 RAID-1 RAID-5 说明只能做 raid 0 和 raid1 和 raid5 ,raid10 需要至少 4 块磁盘,所以这里没有 raid10 的选项。

8、选择需要做的选项比如 RAID-0 ,然后在三块硬盘中选择需要做的硬盘, tab 键移动到该位置选择用空格键就可以,最后选择 ok

RAID-1 只能选择两块硬盘,如下图 ( raid-0 和 raid-5 都可以选择 3 块)

然后再选择 ok

然后按 ctrl + n 可以翻屏查看其他信息

最后按 esc 准备保存退出,弹出下图窗口选择 ok

出现以下界面后,根据提示操作就可以了

时间: 2024-10-09 07:53:01

服务器软硬磁盘阵列的相关文章

服务器做磁盘阵列参考资料

公司需要让我们给服务器做磁盘阵列,搜集一些资料以作备用. Dell服务器做磁盘阵列 Dell服务器设置Raid5 如何使用戴尔PERC H200 阵列卡创建磁盘阵列 Dell 服务器做磁盘阵列 DELL服务器 RAID 磁盘阵列配置图解 7. DELL 服务器操作手册 原文地址:https://www.cnblogs.com/xingyunblog/p/11456734.html

服务器raid5磁盘阵列不同故障导致数据丢失的数据恢复方法(案例)

服务器Raid 5阵列算法 Raid5阵列使用的算法通常被称为"异或运算",这是一个数学运算符.它应用于逻辑运算.异或的数学符号为"⊕",计算机符号为"xor".其运算法则为:a⊕b = (?a ∧ b) ∨ (a ∧?b).如果a.b两个值不相同,则异或结果为1.如果a.b两个值相同,异或结果为0.异或也叫半加运算,其运算法则相当于不带进位的二进制加法:二进制下用1表示真,0表示假,则异或的运算法则为:0⊕0=0,1⊕0=1,0⊕1=1,1⊕1

Raid5磁盘阵列数据恢复,服务器raid数据恢复步骤和方法

[磁盘阵列数据恢复故障描述]客户的一台HP DL380 G4服务器,服务器使用hp smart array控制器挂载了一台国产磁盘阵列,磁盘阵列由14块146G SCSI硬盘组成一组RAID5.操作系统为LINUX,构建了NFS+FTP,作为公司内部文件服务器使用.由于服务器机房进行搬迁,搬迁过程中管理员顺便打扫了一下服务器和磁盘阵列设备,随后在新机房链接线路后服务器无法识别RAID,未做初始化. [对raid5阵列的初检结果]工程师对设备进行简单的初检,发现数据丢失的原因为raid信息丢失,H

服务器磁盘阵列数据恢复方法,raid数据恢复案例

数据恢复故障描述:服务器型号-IBM 3650服务器raid磁盘阵列情况-服务器中共有5块 SAS 300GB 磁盘组成一组RAID5磁盘阵列服务器分区情况介绍-存储划分为一个LUN.3个分区,第一个分区存放的是windows 2003系统,第二个分区用于存储 SQL Server 2010生产库,第三个分区是备份分区. 数据恢复中心初检结果:服务器数据恢复工程师首先对raid磁盘阵列进行初检,发现该服务器中的0号磁盘和4号磁盘出现物理故障离线导致RAID崩溃. 对磁盘阵列进行数据恢复:1.把服

RAID磁盘阵列数据丢失的原因及建议

服务器RAID磁盘阵列信息丢失是许多站长或服务器管理员的噩梦,如果你曾经经历过类似的raid磁盘数据丢失,然后四处寻找数据恢复公司的事情,那么你一定对RAID磁盘数据恢复记忆犹新,如果你从来没有经历过,只是听说过此事,那么你一定往下看,RAID磁盘阵列信息丢失的原因有哪些,只有知道这些原因才能减少和避免RAID磁盘阵列信息丢失.天盾工程师最近频繁接到类似RAID磁盘阵列的丢失客户,此我们根据天盾数据恢复中心工程师多年的经验总结,以下情况经常会导致 RAID 磁盘阵列信息丢失: 1 . RAID

如何建立一台家庭服务器 01-硬件选择建议

一.写在最前面 在着手建立自己的第一台家庭服务器之前,请务必先想清楚以下几个问题再动手. 我真的需要一台机器24小时不间断开着为我服务吗? 我愿意为这台机器不间断工作所产生的电费买单吗? 我有合适的地方摆放着台机器并保证良好的运行环境吗? 我目前需要服务器为我做什么? 我愿意花时间去学习必要的技能从而更好地应用么?(此问题可选答) 第一点,是要确定需求,有不少人花了大把的银子买了很好的机器把服务器做出来然后再变成游戏机.第二点没什么好说的.第三点,请记住,如果想让一台机器任劳任怨的长期为你的的各

联想Lenovo服务器RAID阵列数据恢复

服务器作为数据集中存储和管理的地方,一旦其发生故障,会给用户和企业带来非常大数据损失.联想作为目前比较热门的服务器品牌,被很多企业所使用,也伴随着越来越多联想服务器数据恢复问题的出现.其中一种就是服务器raid卡损坏的数据恢复问题.那么,有没有方法能够解决联想Lenovo服务器RAID阵列数据恢复呢? 引起联想服务器数据丢失的常见故障有6种:lenovo联想服务器RAID阵列信息丢失,造成整台服务器无法启动:lenovo联想服务器硬盘一块硬盘掉线,报红灯,系统服务无法启动:将lenovo联想服务

Raid磁盘阵列数系列问题答疑

[问题] ?--?在断电情况下,把已经配置好的RAID中的硬盘盘位互换后,再次开机会不会影响原先存储数据的完整性,是否会导致数据灾难?? [回答] --??这个要取决于RAID控制器的固件设计,一个最重要的根本是,RAID信息(RAID元数据)记录在什么地方?可以记录RAID信息的地方只能有RAID控制器上的存储单元和硬盘上.?--?如果RAID信息只记录在控制器上,那么配置好的RAID里硬盘盘位互换后,数据一定会受到影响.这种记录方式使用较少,目前只有部分低端控制器采用.??--RAID信息只

磁盘阵列3块有硬盘掉线使用第二种校验方式恢复数据

Raid6磁盘阵列可以看做是raid5阵列的升级版,在raid5的奇偶校验基础上又增加了一种校验,就空间使用率而言raid5磁盘阵列是N-1的空间使用率,raid6阵列是N-2的空间使用率.小编经常记录恢复raid5磁盘阵列的案例,今天介绍一个raid6阵列的数据恢复案例.这次数据恢复的硬件设备是某公司的一台web服务器,raid6磁盘阵列,一共有6块硬盘,现在已经有3块硬盘处于离线状态,服务器崩溃,服务器上的MySQL数据库数据丢失,业务停滞,客户想在北京联系数据恢复公司进行数据恢复,于是联系