利用LVS调整目录空间

0、看有没有lvs
#lvs
  LV      VG       Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv_home vg_vhost -wi-ao----  5.40t                                                   
  lv_root vg_vhost -wi-ao---- 50.00g                                                   
  lv_swap vg_vhost -wi-ao----  7.80g

1、先来查看一下系统的空间分配情况
#df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_vhost-lv_root
                       50G   40G  7.0G  86% /
tmpfs                 7.8G     0  7.8G   0% /dev/shm
/dev/sda1             477M   28M  425M   7% /boot
/dev/mapper/vg_vhost-lv_home
                      5.4T   15G  5.1T   1% /home

2、目标-》增加 /空间,减少 /home空间,缩减vg_vhost-lv_home到2T

#resize2fs -p /dev/mapper/vg_vhost-lv_home 2T

Filesystem at /dev/mapper/vg_vhost-lv_home is mounted on /home; on-line resizing required
On-line shrinking from 1449448448 to 536870912 not supported.

提示,在线不中

3、卸载目录
#umount /home
4、缩减到2T
#resize2fs -p /dev/mapper/vg_vhost-lv_home 2T
resize2fs 1.41.12 (17-May-2010)
请先运行 ‘e2fsck -f /dev/mapper/vg_vhost-lv_home‘.
5、提示先检查
#e2fsck -f /dev/mapper/vg_vhost-lv_home
e2fsck 1.41.12 (17-May-2010)
第一步: 检查inode,块,和大小
第二步: 检查目录结构
第3步: 检查目录连接性
Pass 4: Checking reference counts
第5步: 检查簇概要信息
/dev/mapper/vg_vhost-lv_home: 21/362364928 files (4.8% non-contiguous), 26516105/1449448448 blocks
6、缩减
#resize2fs -p /dev/mapper/vg_vhost-lv_home 2T
resize2fs 1.41.12 (17-May-2010)
Resizing the filesystem on /dev/mapper/vg_vhost-lv_home to 536870912 (4k) blocks.
Begin pass 2 (max = 32768)
正在重定位块            XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
Begin pass 3 (max = 44234)
正在扫描inode表          XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
The filesystem on /dev/mapper/vg_vhost-lv_home is now 536870912 blocks long.
7、重新加载目录
#mount /home
# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_vhost-lv_root
                       50G   40G  7.0G  86% /
tmpfs                 7.8G     0  7.8G   0% /dev/shm
/dev/sda1             477M   28M  425M   7% /boot
/dev/mapper/vg_vhost-lv_home
                      2.0T   15G  1.9T   1% /home
8、使生效,分出空间可用。注意如果有数据,要小于2T,否则丢人
#lvreduce -L 2T /dev/mapper/vg_vhost-lv_home

WARNING: Reducing active and open logical volume to 2.00 TiB.
  THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce vg_vhost/lv_home? [y/n]: y
  Size of logical volume vg_vhost/lv_home changed from 5.40 TiB (1415477 extents) to 2.00 TiB (524288 extents).
  Logical volume lv_home successfully resized.

9、查询卷组的信息:
Free PE / Size指定的应该是现在可在分配的空间

#vgdisplay
  --- Volume group ---
  VG Name               vg_vhost
  System ID            
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  5
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                3
  Open LV               3
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               5.46 TiB
  PE Size               4.00 MiB
  Total PE              1430273
  Alloc PE / Size       539084 / 2.06 TiB
  Free  PE / Size       891189 / 3.40 TiB
  VG UUID               q9cgCG-rlm0-KGYo-Z7xq-6JyO-1hAT-E0ZWpf

10、将可用的空间添加到 /
#lvextend -L +3.4T /dev/mapper/vg_vhost-lv_root

Rounding size to boundary between physical extents: 3.40 TiB.
  Insufficient free space: 891290 extents needed, but only 891189 available

#lvextend -L +3.39T /dev/mapper/vg_vhost-lv_root
  Rounding size to boundary between physical extents: 3.39 TiB.
  Size of logical volume vg_vhost/lv_root changed from 50.00 GiB (12800 extents) to 3.44 TiB (901469 extents).
  Logical volume lv_root successfully resized.

11、还是-l后面的参数好用,呵呵
#lvextend -l +100%FREE /dev/mapper/vg_vhost-lv_root
Size of logical volume vg_vhost/lv_root changed from 3.45 TiB (903986 extents) to 3.45 TiB (903989 extents).
  Logical volume lv_root successfully resized.
12、查看空间,纳闷啊!!
#df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_vhost-lv_root
                       50G   40G  7.0G  86% /
tmpfs                 7.8G     0  7.8G   0% /dev/shm
/dev/sda1             477M   28M  425M   7% /boot
/dev/mapper/vg_vhost-lv_home
                      2.0T   15G  1.9T   1% /home
13、使生效,这个过程可慢,在线啊……
#resize2fs -p /dev/mapper/vg_vhost-lv_root
Filesystem at /dev/mapper/vg_vhost-lv_root is mounted on /; on-line resizing required
old desc_blocks = 4, new_desc_blocks = 221
Performing an on-line resize of /dev/mapper/vg_vhost-lv_root to 925684736 (4k) blocks.
The filesystem on /dev/mapper/vg_vhost-lv_root is now 925684736 blocks long.
14、查看空间,ok
# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_vhost-lv_root
                      3.4T   40G  3.2T   2% /
tmpfs                 7.8G     0  7.8G   0% /dev/shm
/dev/sda1             477M   28M  425M   7% /boot
/dev/mapper/vg_vhost-lv_home
                      2.0T   15G  1.9T   1% /home

时间: 2024-09-30 01:59:50

利用LVS调整目录空间的相关文章

利用lvs实现discuz负载均衡

一:实验目的 利用LVS实现discuz负载均衡  二:实验拓扑图 WEB服务器与PHP服务器在同一网段内,mysql服务器同时起着LVS负载均担作用. 三:搭建WEB服务器 本次WEB服务器采用编译安装服务,编译过程请参考LAMP平台编译.接下来配置WEB服务器主配置文件.  vim /etc/httpd24/extra/httpd-vhosts.conf  #前面的路径为编译时指定的路径.  ifconfig eth0 192.168.1.16/24 up           #修改主机的I

c# 磁盘空间计算 和 目录空间 、 文件大小 计算

namespace CommonLibrary.SystemUtils { /// <summary> /// 表示存储空间大小计量单位 /// </summary> public enum SizeUnitMode { /// <summary> /// 字节 /// </summary> Byte, /// <summary> /// 千字节 /// </summary> KiloByte, /// <summary>

本地缓存目录空间不足

本地缓存目录空间不足 在切图的时候,为了提高切图的性能,通常会配置集群,采用多台gis服务器同时执行一个切图任务.这样就有一个问题需要解决,那就是如果这么多gis服务器将自己切好的图,立即同时写入到arcgiscache的目录下.则会导致切图的性能的下降. 因此arcgis server提供了这样的机制: 在每个gis服务器上的临时缓存目录生成一个bundle,然后将一个bundle再拷贝到arcgissserver的arcgiscache目录下 NB: 1. 仅适用于紧凑型缓存 2.arcgi

linux原先规划的硬盘不足了 目录空间不足怎么扩容

这个问题容易发生在 /var/spool/mail 和 /home 下, 假定在/home下 磁盘分区和格式化 Fdisk硬盘分区工具 e2lable 修改磁盘的lable 的工具 mke2fs  linux 下重要的分区工具 硬盘的装载: 装载硬盘的时候先建立装载目录(特别留意) Mount –t  ios9660 /dev/cdrom   /mnt/cdrom  装载光驱 Mount –tvfat     /dev/fd0     /mnt/floppy 装载windows系统文件软驱 Mo

利用lvs keepalived配置redis高可用及负载均衡

需求 我们用ES做日志服务,架构是 上游数据来源=>redis=>logstash=>ES redis目前还是单点, 没有做高可用, 现在数据量越来越多, 如果下游消费不出问题还好, redis里面数据来了就走,但是下游一旦出问题, 分给redis的内存半小时就撑满了. 看到redis3.0 beta版本已经提供了集群功能, 但是需要client以集群模式接入, 我们这么多上游用户, 不太可能统一要求他们改造. 公司也有硬件的LB, 同事在E公司的时候就是用的硬件LB. 但接入还要申请,

在AIX系统上对目录空间进行调整

复习下LVM知识: LVM的结构简图如下: hda1  hdc1  sdc    (PV:s  物理卷,一般为分区或整个硬盘) \  |  / \  |  / diskvg        (VG卷组由物理卷组成) /  |  \ /  |  \ usrlv rootlvvarlv   (LV:s 逻辑卷在卷组上创建) |    |    | ext2  reiserfs  xfs  (建立在逻辑卷上的文件系统) PV:  实体分割区(Partition)/dev/had... VG:  虚拟硬盘

利用lvs+keepalived实现高可用负载均衡环境的部署

此方案用于lvs+keepalived部署 ,本系统主要使用的技术有:ipvsadm.keepalived 一.服务器环境 ip地址分配如下: lvs1(master) ip:192.168.30.209 lvs2(backup) ip:192.168.30.210 vip1:192.168.30.88 realserver1 ip:192.168.30.201:8087 192.168.30.201:8088 realserver2 ip:192.168.30.202:8087 192.168

利用10g传输表空间实现AIX平台到LINUX平台数据迁移

在 oracle10g 之前,数据文件是不能跨平台传输使用的,从oracle 10g 开始,oracle支持跨平台表空间传输(transport tablespace). 数据文件 不能跨平台的原因是:不同平台操作系统的字.字节存储顺序不同 如果将 4567 这个数据存储到不同的系统中,那么就会出现如下的顺序: little-endian:存储的顺序是7654 , 小数在前 (windows平台,LINUX平台) big-endian:   存储的顺序是 4567 ,大数在前  (solaris

wget任务被kill之后tmp目录空间一直不释放

在一次下载一个200多G的大文件时,使用如下方式进行下载,已经下载了180G wget -c xxxxx.tar.gz   -O xxxx.tar.gz 因为当时机器上做的操作很多,机器有点卡,于是就手工kill掉这个任务,等空闲时候再手工下载. 结果kill掉这个进程后,很长时间这个任务才终止,且之后/tmp目录被占用的空间就一直没有被释放. [[email protected] ~]$ df -hFilesystem            Size  Used Avail Use% Moun