软件RAID的创建

创建软件RAID的指令是mdadm,允许将任何块设备做成RAID。

mdadm是一个模式化的命令,有如下几种工作模式:

创建模式:Create  对应的选项:-C 或--create

管理模式:Manage  对应的选项:--add、--fail、--remove

监控模式:Monitor 对应的选项:-F或--monitor

增长模式:Grow    对应的选项:-G或--grow

装配模式:Assemble  对应的选项:-A或--assemble

创建模式中的专用选项:

-l:指定raid level。长选项:--level=

-n:RAID磁盘的个数。长选项:--raid-devices=

-x:备用磁盘的个数。长选项:--spare-devices=

-a:自动创建设备文件。长选项:--auto= 。默认为--auto=yes

-c:指定chunk的大小,即每一次分配数据块的大小。长选项:--chunk。默认为64KB

示例1:

步骤1:磁盘分区,并将分区类型改为fd

步骤2:让kernel识别分区。partx -a /dev/sda

[[email protected] ~]# cat /proc/partitions 
major minor  #blocks  name
   8        0   41943040 sda
   8        1     204800 sda1
   8        2   10485760 sda2
   8        4          1 sda4
   8        5    1059932 sda5
   8        6    1060258 sda6
[[email protected] ~]#

[[email protected] ~]# partx -a /dev/sda
BLKPG: Device or resource busy
error adding partition 1
BLKPG: Device or resource busy
error adding partition 2
BLKPG: Device or resource busy
error adding partition 4
BLKPG: Device or resource busy
error adding partition 5
BLKPG: Device or resource busy
error adding partition 6
[[email protected] ~]# 

[[email protected] ~]# cat /proc/partitions 
major minor  #blocks  name
   8        0   41943040 sda
   8        1     204800 sda1
   8        2   10485760 sda2
   8        4          1 sda4
   8        5    1059932 sda5
   8        6    1060258 sda6
   8        7    1060258 sda7
   8        8    1060258 sda8
   8        9    1060258 sda9
[[email protected] ~]#

步骤3:创建RAID

[[email protected] ~]# mdadm --create /dev/md0 --auto=yes --level=0 --raid-devices=2 /dev/sda{6,7}
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[[email protected] ~]#

步骤4:格式化,挂载

格式化:

[[email protected] ~]# mke2fs -t ext4 /dev/md0 
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
132464 inodes, 529408 blocks
26470 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=545259520
17 block groups
32768 blocks per group, 32768 fragments per group
7792 inodes per group
Superblock backups stored on blocks: 
32768, 98304, 163840, 229376, 294912
Writing inode tables: done                            
Creating journal (16384 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 27 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
[[email protected] ~]#

挂载:

[[email protected] ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             9.9G  7.8G  1.6G  83% /
tmpfs                 245M     0  245M   0% /dev/shm
/dev/sda1             194M   28M  156M  16% /boot
[[email protected] ~]# mount /dev/md0  /backup/
[[email protected] ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             9.9G  7.8G  1.6G  83% /
tmpfs                 245M     0  245M   0% /dev/shm
/dev/sda1             194M   28M  156M  16% /boot
/dev/md0              2.0G   68M  1.9G   4% /backup
[[email protected] ~]#

测试RAID0的性能:

说明:RAID0的性能比没有做RAID的单块设备的性能,提供了1倍多。没有做RAID的设备,写入一个1500M的内容需要8.352s,做了RAID0的设备写入1500M的内容只用了3.971s。

查看RAID设备的状态:cat /proc/mdstat

[[email protected] backup]# cat /proc/mdstat 
Personalities : [raid0] 
md0 : active raid0 sda7[1] sda6[0]
      2117632 blocks super 1.2 512k chunks
      
unused devices: <none>
[[email protected] backup]#

查看RAID设备的详细信息:mdadm -D /dev/md0    长选项:mdadm --detail

[[email protected] ~]# mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 15:16:34 2014
     Raid Level : raid0
     Array Size : 2117632 (2.02 GiB 2.17 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 15:16:34 2014
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
     Chunk Size : 512K
           Name : Server3:0  (local to host Server3)
           UUID : d3c6d4f8:7447631e:c8941e61:a538f979
         Events : 0
    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       1       8        7        1      active sync   /dev/sda7
[[email protected] ~]#

管理模式:添加(--add)、删除(--remove)、模拟设备损坏(--fail)。

模拟设备损坏:--fail

[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:06:18 2014
     Raid Level : raid1
     Array Size : 1059222 (1034.57 MiB 1084.64 MB)
  Used Dev Size : 1059222 (1034.57 MiB 1084.64 MB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:07:17 2014
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 1
  Spare Devices : 0
           Name : Server3:0  (local to host Server3)
           UUID : d19b864a:36cdb744:52bc5688:39a9668f
         Events : 18
    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       1       0        0        1      removed
       1       8        7        -      faulty spare   /dev/sda7
[[email protected] ~]#

移除损坏的设备:--remove

[[email protected] ~]# mdadm --manage /dev/md0 --remove /dev/sda7
mdadm: hot removed /dev/sda7 from /dev/md0
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:06:18 2014
     Raid Level : raid1
     Array Size : 1059222 (1034.57 MiB 1084.64 MB)
  Used Dev Size : 1059222 (1034.57 MiB 1084.64 MB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:09:00 2014
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0
           Name : Server3:0  (local to host Server3)
           UUID : d19b864a:36cdb744:52bc5688:39a9668f
         Events : 21
    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       1       0        0        1      removed
[[email protected] ~]#

添加设备:--add

[[email protected] ~]# mdadm --manage /dev/md0 --add /dev/sda7
mdadm: added /dev/sda7
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:06:18 2014
     Raid Level : raid1
     Array Size : 1059222 (1034.57 MiB 1084.64 MB)
  Used Dev Size : 1059222 (1034.57 MiB 1084.64 MB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:11:04 2014
          State : clean, degraded, recovering 
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1
 Rebuild Status : 24% complete
           Name : Server3:0  (local to host Server3)
           UUID : d19b864a:36cdb744:52bc5688:39a9668f
         Events : 36
    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       2       8        7        1      spare rebuilding   /dev/sda7
[[email protected] ~]#

停止阵列:--stop

[[email protected] ~]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[[email protected] ~]#

重新启用阵列:--assemble

[[email protected] ~]# mdadm --assemble /dev/md0 /dev/sda{6,7}
mdadm: /dev/md0 has been started with 2 drives.
[[email protected] ~]# cat /proc/mdstat 
Personalities : [raid0] [raid1] 
md0 : active raid1 sda6[0] sda7[2]
      1059222 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:06:18 2014
     Raid Level : raid1
     Array Size : 1059222 (1034.57 MiB 1084.64 MB)
  Used Dev Size : 1059222 (1034.57 MiB 1084.64 MB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:11:07 2014
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
           Name : Server3:0  (local to host Server3)
           UUID : d19b864a:36cdb744:52bc5688:39a9668f
         Events : 51
    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       2       8        7        1      active sync   /dev/sda7
[[email protected] ~]#

彻底删除RAID

[[email protected] ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             9.9G  7.8G  1.6G  83% /
tmpfs                 245M     0  245M   0% /dev/shm
/dev/sda1             194M   28M  156M  16% /boot
/dev/md0              3.0G   69M  2.8G   3% /backup
[[email protected] ~]# umount /dev/md0
[[email protected] ~]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[[email protected] ~]# mdadm --zero-superblock /dev/sda{6,7,8,9,10}
[[email protected] ~]#
说明:--zero-superblock 加上该选项时,会判断如果该阵列是否包含一个有效的阵列超级快,若有则将该超级块中阵列信息抹除。
[[email protected] ~]# rm /etc/mdadm.conf 
删除mdadm的配置文件。如果以前配置过。

开机自动装配RAID设备:

mdadm --detail --scan > /etc/mdadm.conf
作用是将raid信息保存进mdadm.conf,以后装配时,就可以用mdadm -A /dev/md0这种格式来装配。

示例2:创建RAID5,并演示所有操作

测试1:创建RAID 5,并指定RAID等级,RAID设备数和备份设备数

[[email protected] ~]# mdadm --create /dev/md0 --auto=yes --level=5 --raid-devices=4 /dev/sda{6,7,8,9} --spare-devices=1 /dev/sda10 
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:36:03 2014
     Raid Level : raid5
     Array Size : 3176448 (3.03 GiB 3.25 GB)
  Used Dev Size : 1058816 (1034.17 MiB 1084.23 MB)
   Raid Devices : 4
  Total Devices : 5
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:36:29 2014
          State : clean 
 Active Devices : 4
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 1
         Layout : left-symmetric
     Chunk Size : 512K
           Name : Server3:0  (local to host Server3)
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
         Events : 20
    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       1       8        7        1      active sync   /dev/sda7
       2       8        8        2      active sync   /dev/sda8
       5       8        9        3      active sync   /dev/sda9
       4       8       10        -      spare   /dev/sda10
[[email protected] ~]#

测试2:模拟设备故障

[[email protected] ~]# mdadm --manage /dev/md0 --fail /dev/sda6
mdadm: set /dev/sda6 faulty in /dev/md0
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:36:03 2014
     Raid Level : raid5
     Array Size : 3176448 (3.03 GiB 3.25 GB)
  Used Dev Size : 1058816 (1034.17 MiB 1084.23 MB)
   Raid Devices : 4
  Total Devices : 5
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:42:52 2014
          State : clean, degraded, recovering 
 Active Devices : 3
Working Devices : 4
 Failed Devices : 1
  Spare Devices : 1
         Layout : left-symmetric
     Chunk Size : 512K
 Rebuild Status : 14% complete
           Name : Server3:0  (local to host Server3)
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
         Events : 24
    Number   Major   Minor   RaidDevice State
       4       8       10        0      spare rebuilding   /dev/sda10
       1       8        7        1      active sync   /dev/sda7
       2       8        8        2      active sync   /dev/sda8
       5       8        9        3      active sync   /dev/sda9
       0       8        6        -      faulty spare   /dev/sda6
[[email protected] ~]# 
说明:可以看到,当模拟sda6出现故障时,备份盘sda10立马被激活。

测试3:移除故障盘

[[email protected] ~]# mdadm --manage /dev/md0 --remove /dev/sda6
mdadm: hot removed /dev/sda6 from /dev/md0
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:36:03 2014
     Raid Level : raid5
     Array Size : 3176448 (3.03 GiB 3.25 GB)
  Used Dev Size : 1058816 (1034.17 MiB 1084.23 MB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:44:28 2014
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 512K
           Name : Server3:0  (local to host Server3)
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
         Events : 42
    Number   Major   Minor   RaidDevice State
       4       8       10        0      active sync   /dev/sda10
       1       8        7        1      active sync   /dev/sda7
       2       8        8        2      active sync   /dev/sda8
       5       8        9        3      active sync   /dev/sda9
[[email protected] ~]#

测试4:添加新的备用盘

[[email protected] ~]#  mdadm --manage /dev/md0 --add /dev/sda6
mdadm: added /dev/sda6
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:36:03 2014
     Raid Level : raid5
     Array Size : 3176448 (3.03 GiB 3.25 GB)
  Used Dev Size : 1058816 (1034.17 MiB 1084.23 MB)
   Raid Devices : 4
  Total Devices : 5
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 16:46:10 2014
          State : clean 
 Active Devices : 4
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 1
         Layout : left-symmetric
     Chunk Size : 512K
           Name : Server3:0  (local to host Server3)
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
         Events : 43
    Number   Major   Minor   RaidDevice State
       4       8       10        0      active sync   /dev/sda10
       1       8        7        1      active sync   /dev/sda7
       2       8        8        2      active sync   /dev/sda8
       5       8        9        3      active sync   /dev/sda9
       6       8        6        -      spare   /dev/sda6
[[email protected] ~]#

测试5:格式化,开机自动挂载

[[email protected] ~]# echo "/dev/md0 /backup ext4 defaults 0 0" >> /etc/fstab 
[[email protected] ~]# mount -a
[[email protected] ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             9.9G  7.8G  1.6G  83% /
tmpfs                 245M     0  245M   0% /dev/shm
/dev/sda1             194M   28M  156M  16% /boot
/dev/md0              3.0G   69M  2.8G   3% /backup
[[email protected] ~]#

测试6:停止RAID

[[email protected] ~]# mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
[[email protected] ~]# umount /dev/md0
[[email protected] ~]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[[email protected] ~]# 
说明:停止之前需要先卸载

测试7:重新装载RAID。mdadm -As   长选项  mdadm --assemble --scan

[[email protected] ~]# mdadm --assemble --scan
mdadm: /dev/md/0 has been started with 4 drives and 1 spare.
[[email protected] ~]#

测试8:重启系统,测试是否自动挂载RAID

[[email protected] ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             9.9G  7.8G  1.6G  83% /
tmpfs                 245M     0  245M   0% /dev/shm
/dev/sda1             194M   28M  156M  16% /boot
[[email protected] ~]# mount -a
mount: special device /dev/md0 does not exist
[[email protected] ~]# ls -l /dev/m
mapper/ mcelog  md/     md127   mem     midi    
[[email protected] ~]# ls -l /dev/md
说明:重启系统后,发现RAID设备没有自动挂载,并且在/dev目录下md0设备也没有了,而是变成了md127,这是因为没有将raid信息添加到/etc/mdadm.conf这个配置文件的原因。
查看/proc/mdstat:
[[email protected] ~]# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] 
md127 : active raid5 sda6[6](S) sda9[5] sda8[2] sda10[4] sda7[1]
      3176448 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
      
unused devices: <none>
[[email protected] ~]#

解决方法:

1. 获取md127的UUID信息:mdadm --detail /dev/md127 | grep ‘UUID‘

[[email protected] ~]# mdadm --detail /dev/md127 | grep UUID
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
[[email protected] ~]#

2. 创建配置文件mdadm.conf

[[email protected] ~]# cat /etc/mdadm.conf 
DEVICE /dev/sda6 /dev/sda7 /dev/sda8 /dev/sda9 /dev/sd10
ARRAY /dev/md0 UUID=3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
[[email protected] ~]# 
说明:
DEVICE:指定所有的RAID设备。
ARRAY:定义RAID名称和UUID

3. 重启系统

[[email protected] ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             9.9G  7.8G  1.6G  83% /
tmpfs                 245M     0  245M   0% /dev/shm
/dev/sda1             194M   28M  156M  16% /boot
/dev/md0              3.0G   69M  2.8G   3% /backup
[[email protected] ~]# 
[[email protected] ~]# 
[[email protected] ~]# 
[[email protected] ~]# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda8[2] sda6[6] sda7[1] sda9[5]
      3176448 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
      
unused devices: <none>
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:36:03 2014
     Raid Level : raid5
     Array Size : 3176448 (3.03 GiB 3.25 GB)
  Used Dev Size : 1058816 (1034.17 MiB 1084.23 MB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 17:19:26 2014
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 512K
           Name : Server3:0  (local to host Server3)
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
         Events : 64
    Number   Major   Minor   RaidDevice State
       6       8        6        0      active sync   /dev/sda6
       1       8        7        1      active sync   /dev/sda7
       2       8        8        2      active sync   /dev/sda8
       5       8        9        3      active sync   /dev/sda9
[[email protected] ~]# 
说明:重启系统以后,发现可以自动挂载了,但是spare 磁盘没了。

重新添加一个spare设备。并重启系统就可以了。

[[email protected] ~]# mdadm --manage /dev/md0 --add /dev/sda10
mdadm: added /dev/sda10
[[email protected] ~]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Jul 16 16:36:03 2014
     Raid Level : raid5
     Array Size : 3176448 (3.03 GiB 3.25 GB)
  Used Dev Size : 1058816 (1034.17 MiB 1084.23 MB)
   Raid Devices : 4
  Total Devices : 5
    Persistence : Superblock is persistent
    Update Time : Wed Jul 16 17:32:23 2014
          State : clean 
 Active Devices : 4
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 1
         Layout : left-symmetric
     Chunk Size : 512K
           Name : Server3:0  (local to host Server3)
           UUID : 3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
         Events : 65
    Number   Major   Minor   RaidDevice State
       6       8        6        0      active sync   /dev/sda6
       1       8        7        1      active sync   /dev/sda7
       2       8        8        2      active sync   /dev/sda8
       5       8        9        3      active sync   /dev/sda9
       4       8       10        -      spare   /dev/sda10
[[email protected] ~]#

综上所述:在创建好raid之后,如果没有创建配置文件/etc/mdadm.conf的话,重启系统后,新创建的md设备会变成md127,因此在创建好raid后,需要创建mdadm.conf配置文件,该文件中的信息可以采用如下方式添加:

[[email protected] ~]# echo "DEVICE /dev/sda6 /dev/sda7 /dev/sda8 /dev/sda9 /dev/sda10 " >> /etc/mdadm.conf  
[[email protected] ~]# mdadm -Ds >> /etc/mdadm.conf   
[[email protected] ~]# echo "MAILADDR [email protected]" >> /etc/mdadm.conf   
 MAILADDR指定出问题时监控系统发邮件的地址 
 
# 格式如下: 
DEVICE /dev/sda6 /dev/sda7 /dev/sda8 /dev/sda9 /dev/sda10
ARRAY /dev/md0 metadata=1.2 spares=1 name=Server3:0 UUID=3eed72e6:c0f4fa9c:72ff6b5d:32b3cc86
MAILADDR [email protected] 
#DEVICE行指明:依据该配置文件开启阵列时,去查找那些设备的超级快信息;若没有该行,就去搜索mtab中所有设备分区的超级快信息;所以改行可以不写,但是只要写上,以后添加spare
设备时就需要同时修改改行信息;
#ARRAY行指明raid的名称,UUID等信息。

可以参考:http://molinux.blog.51cto.com/2536040/516008

软件RAID的创建

时间: 2024-10-09 21:23:03

软件RAID的创建的相关文章

RAID原理基础及Linux下软件RAID配置

一.RAID的原理基础 在讲解RAID的原理基础之前,我们首先来了解一下传统磁盘的劣势.我们知道一台PC机种都会包含CPU.内存.主板.硬盘.网卡等硬件,影响计算机性能的组建包括:CPU.主板总线IO.内存IO.硬盘IO.网卡IO等.可能我们在一提到影响计算机的性能时,首先想到的就是CPU.但是随着计算机的发展,特别是对于现代的处理器来说,其运算速度已经是非常快的了,同时我们的内存IO速度也已经达到了非常快的地步了(差不多应该有5G每秒),而我们也知道数据都是保存硬盘上的,所以计算机其实是先将硬

Linux学习之CentOS(二十八)--RAID原理基础及Linux下软件RAID配置

转自:http://www.cnblogs.com/xiaoluo501395377/archive/2013/05/20/3089554.html 本篇随笔将详细讲解RAID的原理基础以及Linux下软件RAID的配置 一.RAID的原理基础 在 讲解RAID的原理基础之前,我们首先来了解一下传统磁盘的劣势.我们知道一台PC机种都会包含CPU.内存.主板.硬盘.网卡等硬件,影响计算机性能的 组建包括:CPU.主板总线IO.内存IO.硬盘IO.网卡IO等.可能我们在一提到影响计算机的性能时,首先

3.软件RAID配置

3.软件RAID配置 ·每种操作系统都有软件RAID的实现,在linux中软件RAID通过mdadm这个程序实现, ·mdadm支持raid级别有:RAID0.1.4.5.6, ·mdadm可以基于多块硬盘,分区或逻辑卷创建软件RAID, ·创建好的软件RAID对应/dev/mdn,n为第几个RAID,如第一个创建的RAID为/dev/md0,第二个为/dev/md1, ·RAID的信息保存在/proc/mdstat文件中,或通过mdadm命令查看, ·通过mdadm创建软件RAID: ·创建r

软件raid 5

软件raid 5的实现 RAID 5 是一种存储性能.数据安全和存储成本兼顾的存储解决方案. RAID 5可以理解为是RAID 0和RAID 1的折中方案.RAID 5可以为系统提供数据安全保障,但保障程度要比Mirror低而磁盘空间利用率要比Mirror高.RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,写入数据的速度比对单个磁盘进行写入操作稍慢.同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较低,是目前运用较多

软件RAID 0

软件RAID 0的实现 RAID 0又称为Stripe或Striping,它代表了所有RAID级别中最高的存储性能.RAID 0提高存储性能的原理是把连续的数据分散到多个磁盘上存取,这样,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求.这种数据上的并行操作可以充分利用总线的带宽,显著提高磁盘整体存取性能. RAID 0的缺点是不提供数据冗余,因此一旦用户数据损坏,损坏的数据将无法得到恢复.RAID0运行时只要其中任一块硬盘出现问题就会导致整个数据的故障.一般不建

软件RAID

一.简介 1.独立硬盘冗余阵列(RAID, Redundant Array of Independent Disks),旧称廉价磁盘冗余阵列(Redundant Array of Inexpensive Disks),简称磁盘阵列.其基本思想就是把多个相对便宜的硬盘组合起来,成为一个硬盘阵列组,使性能达到甚至超过一个价格昂贵.容量巨大的硬盘.根据选择的版本不同,RAID比单颗硬盘有以下一个或多个方面的好处:增强数据集成度,增强容错功能,增加处理量或容量.另外,磁盘阵列对于电脑来说,看起来就像一个

了解linux下RAID(磁盘阵列)创建和管理

现在的操作系统,不论是windows 还是linux都具有raid的功能,RAID 分为硬件 RAID 和软件 RAID, 硬件 RAID 是通过 RAID 卡来实现的,软件RAID是通过软件实现的, 现在常用的raid有: raid0:至少两块硬盘: raid1:至少两块硬盘: raid5:至少三块硬盘: raid6:至少四块硬盘: 1.虚拟机环境准备 虚拟机环境,添加4块 1GB IDE 盘,计划做 RAID0和RAID5. 2. 查看硬盘信息 # fdisk -l RAID 设备创建和管理

Open-E DSS V7 应用系列之四 构建软件RAID

续Open-E DSS V7 应用系列之三 Web管理简介 一.RAID技术简介 RAID(Redundant Array of Independent Disks):独立冗余磁盘阵列,简称磁盘阵列.RAID是按照一定的形式和方案组织起来的存 储设备.它比单个存储设备在速度.稳定性和存储能力上都有很大提高,并且具备一定的数据安全保护能力. RAID常见的规范有如下几种: RAID 0:RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余,因

linux学习之路之磁盘阵列RAID及硬件RAID和软件RAID的区别

我们知道单个磁盘存储数据的容量是有限的,为了让磁盘的容量增大,我们可以将多个较小的磁盘组合在一起,形成一个较大的磁盘装置,这就是RAID(独立式磁盘阵列),RAID不仅可以提高数据的存储容量,也可以提高数据保护功能,不同级别的RAID,所提供的的功能各不一样. RAID常见的级别有RAID0,RAID1,RAID5,RAID10,RAID01,RAID5,RAID50 下面逐个介绍这些级别的工作原理. RAID0:首先将磁盘分成等量的数据块(CHUNK),然后在将存储的数据切分成符合CHUNK大