Linux 磁盘管理 高级篇 -- quota,RAID,LVM

1 概述

本文对配额,RAID,LVM的概念和具体创建过程做了介绍

2 配额

2.1 配额概念

在内核中执行

以文件系统为单位启用

对不同组或者用户的策略不同

根据块或者节点进行限制

执行软限制(soft limit)

硬限制(hard limit)

实现控制用户使用磁盘空间,防止某个用户无限制使用磁盘空间,对系统造成损害

配额要对磁盘独立分区进行控制,而且只能针对文件系统来进行配额,不能对文件夹进行控制,文件系统挂载选项要具备quota功能,在fstab里添加usrquota,grpquota

2.2 搬移目录数据到独立分区

假设原来家目录/home和根目录在同一磁盘上,当用户在自己家目录下无限使用空间,可能会导致磁盘空间不够,对系统造成严重的损害,因此,迁移旧磁盘/home的数据到独立的磁盘上,步骤如下

1新建一个磁盘/dev/sdb1,格式化后分区挂载到系统上,如挂载点/mnt/home

2数据迁移完成了,发通知告诉所有用户说明我们什么时间要维护系统,如取消旧目录/home挂载,系统暂时不能使用

3切换到单用户模式下进行操作init 1,确保所有用户不再对/home继续数据写入。

4迁移数据cp-a/home/* /mnt/home注意。这里我们明确home下都是用户的家目录,没有隐藏文件,所以我们就用/home/*形式进行拷贝

5建议提前做备份,如果确认数据迁移都完成,第4步操作完成后,数据都在磁盘/dev/sdb1下了

清空旧目录数据rm-rf/home/*

6.卸载掉/dev/sdb1在原来的挂载点/mnt/home。重新挂载到/home下

mount/dev/sdb1 /mnt/home

umount/dev/sdb1/home

这一步建议写入配置文件/etc/fstab里

vim/etc/fstab

/dev/sdb1/home ext4 defaults 0 0

到这里数据迁移完成,/home已经在独立的分区/dev/sdb1上

2.3 启用分区配额功能

1.在fstab里对应挂载分区的挂载选项添加usrquota,grpquota

生效配置,重新挂载分区mount –a remount /home

2创建磁盘配额数据库

配额是放到二进制的数据库里

quotacheck -cug/home在home里会生成两个quota的二进制文件,c是创建的意思,u对应usrquota,g对应grpquota

执行语句后,发现在/home下生成了两个二进制的文件,执行命令file /aquota.*查看新生成的文件的类型

如果出现如下的报错,请坚持selinux是否开启,getenforce,如果开启请关闭,setenforce0

3开启数据库

quotaon /home

4查看配额设置是否已经生效,如果显示on,表示已经生效

quotaon-p /home

5针对每个用户设置配额

这里的blocks单位就是1k。block是目前已经暂用多少空间,不可以通过设置得到。

inodes是当前已经创建文件的数量,后面的hard soft才是对文件数的现在,不可以通过设置得到。

grace是指宽限期,超出soft现在后,才会出现的日期,表示超过soft多少天后,即使没有超过hard现在,超过时间也是会导致不能创建任何的文件。可以通过edquota -t这个命令修改block或者是inode的值

edquota wang//针对sunny用户来修改配额

另外,edquota是交互式的命令,可以通过setquota实现非交换的配额设置

setquota sunny80000 100000 175 180 /home前面两个数字80000

100000分别对应block的soft和hard,后面的0 0是inode的现在,0 0表示不对文件数进行限制

到这里,quato针对用户的设置已经完成。接下来测试

6测试

切换到对应用户账号,然后在家目录下创建文件

su -wang

dd if=/dev/zero of=test1bs=1M count=65正常创建

dd if=/dev/zero of=test2bs=1M count=85出现报警,但是还是可以成功

dd if=/dev/zero of=test2bs=1M count=105失败,文件大小为上限100M

如果要针对用户去掉配额限制,只要把配合对应的hard和soft都调整为0就可以

文件占用的空间的大小是根据所有者来设置的。以下例子,把f1所有者改为mage后,可以看到files数量就少了一个

edquota –p wang mage 复制wang的磁盘配额设置给到mage这个账号

2.4针对组进行配额

组管理配额是针对整个组所有用户的空间或者文件数量使用总和进行限制

对组quota进行配置

edquota-g quota,限制如下

实验截图

管理员账号下repquato可以查看配额使用情况

2.5 xfs文件系统配额

XFS基于目录配额的Project Quota配置,和ext4是根据用户和组创建方法不一样。

关于xfs_quota的详细介绍,建议manxfs_quota查看,里面有详细的例子和各个参数的介绍

/etc/projectsMapping ofnumeric project identifiers to directories trees.

/etc/projidMapping ofnumeric project identifiers to project names.

这里简要介绍步骤

1.分区和挂载见ext4格式的例子

2.建立一个使用配置文件的Project

Quota文件目录并设置配额

mkdir -p /home/app

echo 42:/home/app >>/etc/projects

echo application:42 >>/etc/projid

xfs_quota -x -c ‘project -s application‘/home

xfs_quota -x -c ‘limit -p bhard=100Mapplication‘ /home/

xfs_quota -x -c ‘report /home/app‘

xfs_quota -x -c ‘limit -p bsoft=80Mapplication‘ /home/

3.查看配额报告信息

xfs_quota -x -c ‘report /home/app

4. 测试,在/app下创建大于100M的文件,就会报警

3 RAID

3.1 RAID概念

raid每个硬盘取出的空间大小是要一致的

假设有一个3个硬盘组成的raid0,一个100M的文件要放到raid0里,该大文件会分成很多chunk(小块),然后分别将这些块放到raid的三块硬盘上写入。

raid1防止的是硬件损坏,如果在其中一块盘修改数据,另一块盘也会被修改。同步的。

raid4具有容错性和性能提高,一块当做校验的硬盘,但是raid4的问题是校验位固定往一块硬盘上写入的,根据经验,该校验位的硬盘损坏频率很高。

raid5.和raid4差不多,使用率也是(n-1)/n,但是校验位是平均放到其他硬盘上的,没有固定在一块硬盘,这样同一机器上硬盘的使用频率就差不多,所以损坏频率就都一样,也叫带有奇偶校验位的磁带机。当坏掉一块硬盘后,服务器的性能会下降,因为要去反正算错校验位的数据,对系统造成了压力。所以为了应对这种情况,raid5还有一个spare disk,要在机器上准备一个备用的硬盘。平常不参与raid工作。即spare disk。当发现有故障的硬盘,这块备用的硬盘会立即使用

raid6有两个校验位.使用率为(n-2)/n。坏掉两块硬盘也不会有问题。

raid10,先1后0,假设8块盘,先两两做成1,再把4组做成0,相对raid01容错性好,所以生产环境一般用raid10

raid01即先0后1,假设有8块硬盘,先4块4块做成raid0,然后再把两组raid0做成了raid1.

3.2 创建raid5

1.做raid先分区,类型选择raid

注意,这里如果整块硬盘都拿来做raid,可以不用做分区,更不存在选择类型raid。测试一下整块盘拿来用的情况

2.mdadm –C创建

mdadm-C /dev/md0-a yes-l 5-n 3-x 1 /dev/sd{c,d,e,f}1

注意,这个创建过程比较慢

可以用

cat/proc/mdstat

mdadm-D/dev/md0查看raid的状态

3.写入配置文件,系统默认没有mdadm.conf的文件,需要手动生成

mdadm-Ds> /etc/mdadm.conf

这里的s是小写字母s,这个配置文件如果不生成,那么当禁用raid后,想要再次重启就起不来了

/etc/mdadm.conf语法如下

4. 格式化新的raid分区文件

mkfs.ext4/dev/md0

5 挂载

mount/dev/md0/mnt/raid

写入配置文件

vim /etc/fstab

/dev/md0/mnt/raidext4defaults00

到这里raid就创建完成了。

3.3 测试性能和容错性

3.3.1 测试写性能

raid5写性能并没有提高太多

dd if=/dev/zeroof=/dev/raid/bigfile bs=1M count=1024

3.3.2 测试读性能

raid5读性能相对普通硬盘有较大的提高

dd if=/dev/raid/bigfileof=/dev/null

3.3.3 测试容错性

模拟逻辑故障mdadm /dev/md0-f/dev/sdc1

移除损坏的sdc1mdadm /dev/md0-r/dev/sdc1

添加硬盘mdadm/dev/md0-a /dev /sdc1

模拟物理性的损坏,硬盘故障后,raid的性能会严重降低

直接移除一个硬盘,在虚拟机上,直接移除掉一块硬盘,如果要添加回去用,添加硬盘后,执行

mdadm/dev/md0-a /dev /sdc1

3.4 增加新的成员

#mdadm –G /dev/md0 –n4 -a /dev/sdf1这样就会在增加一块硬盘到raid里,由原来的3块硬盘变成了4块硬盘做raid5.

如果要加一块是spare,即备用的盘,spare状态的盘可以有很多块,执行如下语句

mdadm/dev/md0-a /dev/sdf2.

3.5 停止raid

1.取消挂载,umount,同时把配置文件/etc/fstab里的对应md0信息删掉

2.停止raid ,

mdadm -S/dev/md0//注意,这里-S是大写字母S

3.清掉生成的配置文件

rm –rf/etc/mdadm.conf

4.清除raid上元数据

mdadm--zero-superblock /dev/sd{b,c,d,e}

删掉raid后,raid的信息还在,如果不清,这些盘就不能用,重启机器后这些盘还会启用raid,所以要清除raid数据。注意,如果这些数据不清除,即使做了1—3步骤,当重启机器后,就会变成md127的raid。处理办法是先停掉md127: mdadm

-S /dev/md127,然后在通过blkid把查出来之前做raid的盘全部用第4步的方法清空。

这里如果没有清干净,下次重新给这些盘分区,分区还是会显示旧的raid原信息。所以拿掉raid建议都做一下这步,如果比较顽强,重启后还是出现,再次执行这个清空步骤,把对应的分区raid旧的元数据清掉

清除raid,如果停raidmd0后,执行mdadm--zero-superblock /dev/sd{b,c,d,e},这个raid md0

又复活了,如下,多次停掉还是一样的问题,这个情况可能是raid里某个分区处于忙碌状态,导致整个raid都不能被清空,建议直接删掉raid对应的每个分区,然后同步硬盘,看看是否同步磁盘partprobe后,看看磁盘是否正常被清掉了,用blkid查看对应分区的相同UUID是否没了,如果没了,就正常。如果同步还是有问题,在具体看是哪个盘有问题,可以重复清空对应分区的元数据,已经删掉分区进行同步处理

备注,特殊情况下,清掉raid有时比较麻烦,可以通过清空元数据,重启,清空对应分区,三个方式进行处理。如果再次重启,没有启动raid,说明已经完成卸载raid的工作。

3.6 创建raid10

以下仅介绍创建raid的方法,分区,格式化和挂载需读者自行穿件

方法一,先建1后建0

mdadm -C /dev/md0 -a yes -l 1 -n 2 /dev/sdb{1,2}

mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdc{1,2}

mdadm -C /dev/md2 -a yes -l 0  -n 2 /dev/md{0,1}

方法二,直接创建

mdadm -C /dev/md0 -a yes -l 10 -n 4 /dev/sdb{1,2} /dev/sdc{1,2}

4 LVM

4.1 LVM概念

创建成物理卷后相当于给分区贴了一个标签,告诉系统这些硬盘以后可以用来创建LV,然后要把物理卷组合在一起,创建卷组,卷组的空间为物理卷空间的总和。然后再将卷组创建为逻辑卷。

扩容的时候,就是要将新的硬盘建成物理卷,然后再加到对应的卷组,则卷组的空间就扩展了。逻辑卷的读写性能不比物理分区差

LVM的LV的容量默认是256G,原因是一个lv里面PE最多是65536个,每个PE默认大小是4M,所以65536*4M/1024=256G,因为PE数量调整不了,所以我们可以通过调整PE的大小来进行调整,在创建VG的时候用选项-s来指定PE的值,如将PE=16M,那么LV的最大总量就可以达到1TB的容量。

LVM的相关指令汇总如下

4.2 创建逻辑卷

1.分区,选择类型是8e,这里组合的分区的大小可以不一样大

2.pvcreate /dev/sdb1 /dev/sdc1

3 pvs或pvdisplay进行查看

4创建卷组vgcreate vg0/dev/sd{b,c}1

5 vgs或vgdisplay查看卷组

6创建逻辑卷lvcreate-n lv0-l 50%vg vg0

这里-L也可以跟大小10G

7查看lvdisplay

ll/dev/vg0/*可以看到有链接文件

8格式化,给文件创建系统

mkfs.xfs /dev/vg0/lv0

9挂载,写入配置文件

到这里,创建成功

4.3 扩展LVM空间

扩展是先扩展逻辑卷后再同步文件系统

先用vgdisplay查看空间。看看剩余有多少卷组空间可以分配,

4.3.1 如果有剩余空间

扩展逻辑卷,两个写法,如下

lvextend-l+2000/dev/vg0/lv0

lvextend-L+5G /dev/vg0/lv0

注意大写L和小写l后面跟的单位不一样,大写L后面跟单位,多少M或G等,小写的l跟多少个逻辑卷单位

增加完成后,用lvdisplay查看空间增加情况

然后用df –h查看逻辑卷目前的文件系统空间情况,因为新增加的空间还没有创建文件系统,所以用df看不到新增加后的大小。需要同步

如果是xfs文件系统,同步命令为xfs_growfs /mnt/lv0后面跟着的是挂载点,将同步新增加的空间的文件系统,xfs的文件系统只能增加,不能减少

如果是ext文件系统的同步用resize2fs /dev/vg0/lv17G

如果出现如下的报错,建议同步语句中不要写扩容后的大小,命令resize2fs /dev/vg0/lv1

[[email protected] lv0]# resize2fs/dev/vg0/lv0 9.6G

resize2fs 1.41.12 (17-May-2010)

resize2fs: Invalid new size: 9.6G

ext4文件系统可以缩减空间,但是一般生产环境不缩减空间,如果要缩减,要先做好原来数据备份后再进行缩减

4.3.2 步骤如下

1.分出一块分区,类型选择逻辑卷sda7

fdisk/dev/sda--> n-->7-->+3G-->t—8e->w

2.pvcreate /dev/sda7

3.vgextend vg0 /dev/sda7

4.扩展逻辑卷

lvextend-L 7G/dev/vg0/lv1

5.同步文件系统

resize2fs/dev/vg0/lv1

注意,这里扩展逻辑卷和同步文件系统,可以直接用一条命令创建,如下

lvextend-r-L+500M /dev/vg0/lv1

4.4 缩减空间

缩减则是先缩减文件系统再缩减逻辑卷,注意缩减前要先把数据做好备份,才能做缩减,否则数据可能丢失,如果,当前数据量大于要减少后的盘的大小,则数据会部分丢失,步骤如下:

umount /mnt/lv1

e2fsck -f /dev/vg0/lv1//系统强制要求的步骤

resize2fs /dev/vg0/lv1 5G

lvreduce-L5G/dev/vg0/lv1

mount-a

4.5 迁移逻辑卷

首先要确保要迁移的逻辑卷和新的机器上已有的逻辑卷名称不一样,可以重命名

1.umount /mnt/lv0

2.确保逻辑卷的名字和新机器上的逻辑卷不同名,同名就直接改掉

lvrename/dev/vg0/lv0newlv0

vgrename vg0 newvg0

3.改成非活动状态,pvdisplay查看

vgchange-annewvg0

4.导出逻辑卷

vgexportnewvg0

5.拆除硬盘,把拔下来的硬盘插入目标主机,这边虚拟机上操作硬盘移除和插入新主机,主要是把硬盘文件移动到新主机的目录下,新主机添加硬盘选择已有的磁盘,选中对应的移动过来的硬盘文件.vmk,完成硬盘的添加

6.在新主机上用pvscan扫描,这步可以不操作

7.导入硬盘

vgimport newvg0

8.激活新增加的硬盘

vgchange -aynewvg0

9.挂载

mount/dev/newvg0/newlv0 /mnt/newlv0

完成迁移

4.6 从逻辑卷里删除正在使用的物理分区

pvdisplay看看要移走的分区是否有人用,有人用的话,

pvdispaly查看到如果total PE和free PE一样大,表示没人用,可以直接移走

4.6.1 没有数据,方法如下

1.从逻辑卷里移走

vgreduce vg0 /dev/sda7

2.去掉物理卷标签

pvremove /dev/sda7

3.直接删掉分区fdisk/dev/sda -->d-->7

如果用pvdiskpaly查看到有数据,表示有人用,就要迁走数据到同一卷组的其他可用的PE上执行

pvmove /dev/sda6

移走sda6上的PE到同一卷组的剩余PE后才能拆掉空间,这里要确认同一卷组还有多余的空间,即PE,才能移走数据

4.6.2 如果同一卷组没有多余的空间,要先加卷组空间

1.新建一块分区fdisk/dev/sda->n-->7-->t—8e-->w

2.pvcreate /dev/sda7

3.vgextendvg0 /dev/sda7

4.有空间后就可以移走数据,pvmove命令会在同一卷组里找到其他空闲空间进行数据的存放

pvmove /dev/sda6

5.从vg0里删掉/dev/sda6这块盘

vgreduce vg0/dev/sda6

6.删掉空间

pvremove /dev/sda6

7.通过fdisk移除分区

4.7 逻辑卷快照

逻辑卷快照相当于是把当前的状态记录下来,有备份的效果,但是不能代替备份,因为备份可以备份到其他机器上,快照都是在本地磁盘下

逻辑卷快照的原理是在同一个卷组里也要创建一个快照逻辑卷,快照会占用一定大小的空间。快照之所以快,原因是没有真正拷贝数据,而是分配了一定的空间来使用,但是后期数据有变更时,旧的数据就会被推送到快照空间,即快照存放最旧的数据,当前的逻辑卷存放最新的数据,没有变更的数据就不会存放到快照里。但是快照会导致服务器性能下降,因为快照会做备份的操作,导致快照会导致服务器性能下降,所以一般用于测试环境。

新建快照速度很快

4.7.1 创建LVM快照

创建快照命令如下,-s表明是做快照,-p指定属性为只读

lvcreate-nlv1-snapshot-s-L100M-pr/dev/vg0/lv1

挂载快照

mount/dev/lv1-snapshot/mnt/snap

测试

在数据还没修改前,/mnt/snap看到的快照数据实际是lv1上的原始数据,此时还没做任何备份操作

1.当在lv1上修改数据,一旦数据被修改后,/mnt/snap就保存旧的数据,新的数据在lv1上

2.将原来的lv1删掉一个文件,则被删掉的文件就会被复制到snap上

3.在lv1上新建一个文件,snap上不会生成有新的文件

4.7.2 恢复LVM备份

1.取消逻辑卷和快照的挂载

2.合并数据,恢复后,快照会被删掉。

lvconvert--merge/dev/vg0/lv1-snapshot

如果没有取消挂载,就进行数据恢复,就会出现如下对的报错

[[email protected] ~]# lvconvert --merge/dev/vg0/lv0-snap3

Can‘t merge over open origin volume

Can‘t merge when snapshot is open

Merging of snapshot lv0-snap3 will start next activation.

然后,即使取消挂载,要再次恢复原始数据时候,就会出现如下的报错

[[email protected] ~]#lvconvert --merge /dev/vg0/lv0-snap3

Snapshot lv0-snap3 is already merging

Unable to merge LV "lv0-snap3" intoits origin.

如果遇到这样的报错,查看还是出现异常,因为lv0还没被恢复到原始数据,但是重启发现就正常了,出现这个报错,原因是未取消快照盘的挂载就执行了恢复的操作

所以,要恢复快照,即恢复原始数据,一定要取消挂快照的挂载后才能进行恢复

如果不重启机器,解决办法是同时取消快照盘和lv0盘的挂载,将lv0设为未激活,然后再次激活,最后重新挂载,就可以恢复到快照时的数据

umount /mnt/lv0

umount /mnt/snap

lvchange -an /dev/vg0/lv0

lvchange -ay /dev/vg0/lv0

mount /dev/vg0/lv0 /mnt/lv0

4.8 删除逻辑卷

1.取消挂载,

2.删除逻辑卷,如果逻辑卷上有快照,系统会提示先删快照再删逻辑卷,此次操作,会清空数据

lvremove/dev/vg0/lv1

3.删卷组

vgremove vg0

4.删除物理卷

pvremove/dev/sd{a,b,c}

5.通过fdisk删掉之前创建逻辑卷的分区,达到彻底删除的效果

5 附录

创造一个即有LVM的的优点,弹性调整filesystem的大小,同时又具备磁盘阵列的效能和备份功能的文件系统

思路先建raid再建LVM

1.用fdisk分区sd{b,c,d,e,f}1,五个

2.将多个分区通过命令mdadm创建一个raid5的磁盘阵列,并生成配置文件

mdadm-C/dev/md0-ayes-l5-n 4-x 1/dev/sd{b,c,d,e,f}1

mdadm-Ds >/etc/mdadm.conf

3.创建PG,VG,LV

pvcreate/dev/md0

vgcreatesunny_raid_vg/dev/md0

lvcreate-L 10G-nsunny_raid_lvsunny_raid_vg

4.格式化lv文件系统

mkfs.ext4/dev/sunny_raid_vg/sunny_raid_lv

5.挂载

mkdir /dev/raidlv

mount/dev/sunny_raid_vg/sunny_raid_lv/mnt/raidlv

移除设备

思路卸载lv的挂载后,先拆除lv,后停掉raid

步骤如下

umount /dev/raidlv

lvremove/dev/sunny_raid_vg/sunny_raid_lv

vgchange-ansunny_raid_vg

vgremovesunny_raid_vg

pvremove/dev/md0

mdadm-S/dev/md0

rm-rf/etc/mdadm.conf

mdadm--zero-superblock /dev/sd{b,c,d,e,f}1

用fdisk将对应的分区删掉

到此,实验完成。

时间: 2024-10-13 11:35:06

Linux 磁盘管理 高级篇 -- quota,RAID,LVM的相关文章

Linux磁盘管理高级

Linux磁盘管理高级 LVM Btrsh LVM 逻辑卷管理(LVM)指系统将物理卷管理抽象成一个逻辑卷,包括重新设定文件系统的大小,LVM可以弹性的更改LVM的容量,通过交换PE来进行资料的转换,将原来LV内的PE转移到其他的设备中以降低LV的容量,或将其他设备中的PE加到LV中以加大容量. LVM还有快照的功能,快照区与原本的LV共用很多PE的区块,因此快照区与被快照的LV必须要要在同一个VG上!系统恢复的时候的文件数量不能高于快照区的实际容量. LVM的基本原理可用下图表示: LVM: 

Linux 磁盘管理 基础篇--创建基本文件分区

1 概述 本文通过对讲解了磁盘的基本概念,分区,创建文件系统,挂载,卸载等步骤进行讲解.使得用户能够创建基本的磁盘并挂载使用空间. 2 磁盘基本概念 2.1 磁盘空间 每个扇区大小是512byte,这是磁盘的最小单位 每一个磁道上有多少个扇区就是扇区数 sectors 每一圈叫做磁道(track),最外面的叫做0磁道 依次往里增加,最里面的磁道数最大 每个盘有两个面,都有两个磁头(head)读取数据 相同的磁道组成的叫做柱面(cylinder),同样最外面叫0柱面,最里面柱面数最大 因此, 每个

Linux 磁盘管理 管理LVM逻辑卷 以及 RAID卷组成

Linux 磁盘管理 管理LVM逻辑卷 以及 RAID卷组成 管理磁盘及分区 在Linux服务器中,当现有硬盘的分区规划不能满足要求(例如,根分区的剩余空间过少,无法继续安装新的系统程序)时,就需要对硬盘中的分区进行重新规划和调整,有时候还需要添加新的硬盘设备来扩展存储空间. 实现上述操作需要用到 fdisk磁盘及分区管理工具, fdisk是大多数 Linux系统中自带的基本工具之一.本节将通过为 Linux主机新增一块硬盘并建立分区的过程,介绍 fdisk工具的使用. 增加硬盘设备时首先需要在

【转载】Linux磁盘管理:LVM逻辑卷管理

Linux学习之CentOS(二十五)--Linux磁盘管理:LVM逻辑卷基本概念及LVM的工作原理 这篇随笔将详细讲解Linux磁盘管理机制中的LVM逻辑卷的基本概念以及LVM的工作原理!!! 一.传统的磁盘管理 其实在Linux操作系统中,我们的磁盘管理机制和windows上的差不多,绝大多数都是使用MBR(Master Boot Recorder)都是通过先对一个硬盘进行分区,然后再将该分区进行文件系统的格式化,在Linux系统中如果要使用该分区就将其挂载上去即可,windows的话其实底

LInux磁盘管理:LVM逻辑卷

Linux磁盘管理:LVM逻辑卷 LVM简介   LVM(Logical Volume Manager 逻辑卷管理),是Linux操作系统的逻辑卷管理器.   LVM将一个或多个硬盘的分区在逻辑上集合,相当于一个大硬盘来使用,当硬盘的空间不够使用的时候,可以继续将其它的硬盘的分区加入其中,这样可以实现磁盘空间的动态管理,相对于普通的磁盘分区有很大的灵活性.   与传统的磁盘与分区相比,LVM为计算机提供了更高层次的磁盘存储.它使系统管理员可以更方便的为应用与用户分配存储空间. 逻辑卷基本术语 物

linux磁盘管理之LVM逻辑卷认识与管理详解(实验详细,可跟做)

Linux磁盘管理之LVM逻辑卷认识与管理详解 前言 本文接着上篇文章作如下延伸:链接:Linux磁盘管理之磁盘管理与文件系统 什么是LVM?为什么需要LVM? 如何具体进行LVM逻辑卷管理? 什么是磁盘配额?为什么需要磁盘配额? 在Linux中进行磁盘配额的条件是什么呢? 如何具体进行磁盘配额? 下面对以上问题逐一讲解,深入实例进行操作,带你深入理解linux磁盘管理之LVM逻辑卷管理. 一.LVM概述 1.什么是LVM?为什么需要LVM? ? 许多 Linux 使用者安装操作系统时都会遇到这

Linux磁盘管理:LVM逻辑卷创建及使用

Linux磁盘管理:LVM逻辑卷创建及使用    一.创建LVM逻辑卷    通过图文并茂的方式来看看如何创建我们的LVM ,首先是要将我们的物理硬盘格式化成PV,然后将多个PV加入到创建好的VG中,最后通过VG创建我们的LV.所以我们第一步就是将我们的物理硬盘格式化成PV(物理卷) ①将物理硬盘格式化成PV(物理卷) 使用的是 pvcreate 命令 这里我已经事先虚拟化了3快物理硬盘,每块硬盘的大小为8G,通过 fdisk -l 命令可以查看 [[email protected] ~]# f

Linux磁盘管理--LVM原理及基本操作

LVM(Logical Volume Manager)逻辑卷管理是Linux磁盘管理中的常用操作, 本文主要描述LVM的基本原理以及对LVM的扩展和缩减的基本操作. LVM实质是过软件方式将多个物理分区或磁盘组合成为一个容量可变大小的磁盘卷组VG, 再通过对VG中的基本单位PE构成可变大小的逻辑卷LV. LVM的优点: 通过调整VG中PV的数量来动态调整VG的容量大小, 通过调整LV中PE的数量来动态调整LV的容量大小. LVM中组成部分: 1. 分区: 磁盘中的可用分区, 分区类型ID应在创建

磁盘管理之基于软RAID的LVM

LVM即为逻辑卷管理是一种管理磁盘的工具使用此技术可以动态的扩展和缩小文件系统空间而不损坏其中数据同时它还具备快照功能实现文件的备份本文将介绍lvm创建逻辑卷,缩减逻辑卷以及利用快照功能实现频繁读写的文件系统的备份. 下图为其逻辑结构: PV:物理卷   PE:物理区域 VG:卷组 LV:逻辑卷 逻辑卷的创建可以是分区或是RAID 下面将以软RAID5方式详细介绍逻辑卷的创建过程 创建软raid5 首先创建分区 我们使用分区工具fdisk 设备为/dev/sdb 创建3个主分区分别为 /dev/