xfs文件系统

引用http://blog.chinaunix.net/uid-522675-id-4665059.html  xfs文件系统使用总结

1.3 xfs相关常用命令
xfs_admin: 调整 xfs 文件系统的各种参数  
xfs_copy: 拷贝 xfs 文件系统的内容到一个或多个目标系统(并行方式)  
xfs_db: 调试或检测 xfs 文件系统(查看文件系统碎片等)  
xfs_check: 检测 xfs 文件系统的完整性  
xfs_bmap: 查看一个文件的块映射  
xfs_repair: 尝试修复受损的 xfs 文件系统  
xfs_fsr: 碎片整理  
xfs_quota: 管理 xfs 文件系统的磁盘配额  
xfs_metadump: 将 xfs 文件系统的元数据 (metadata) 拷贝到一个文件中  
xfs_mdrestore: 从一个文件中将元数据 (metadata) 恢复到 xfs 文件系统  
xfs_growfs: 调整一个 xfs 文件系统大小(只能扩展)  
xfs_freeze    暂停(-f)和恢复(-u)xfs 文件系统
xfs_logprint: 打印xfs文件系统的日志  
xfs_mkfile: 创建xfs文件系统  
xfs_info: 查询文件系统详细信息  
xfs_ncheck: generate pathnames from i-numbers for XFS  
xfs_rtcp: XFS实时拷贝命令   
xfs_io: 调试xfs I/O路径

2.2  计算块使用
 We want to use mysql on /dev/sda3, but how can we ensure that it is aligned with the RAID stripes?  It takes a small amount of math:

Start with your RAID stripe size.  Let’s use 64k which is a common default.  In this case 64K = 2^16 = 65536 bytes. 默认尺寸是64K
    Get your sector size from fdisk.  In this case 512 bytes. 扇区大小512b
    Calculate how many sectors fit in a RAID stripe.   65536 / 512 = 128 sectors per stripe. 每个条带大小128个扇区。
    Get start boundary of our mysql partition from fdisk: 27344896. 查看mysql分区的起始数为27344896
    See if the Start boundary for our mysql partition falls on a stripe boundary by dividing the start sector of the partition by the sectors per stripe:  27344896 / 128 = 213632.  This is a whole number, so we are good.  If it had a remainder, then our partition would not start on a RAID stripe boundary. 查看如果由起始扇区划分的起始边界落到条带的边界,再计算扇区数,得到一个整数。如果有余数,那么我们的分区不会从raid条带边界开始。
    
Create the Filesystem

XFS requires a little massaging (or a lot).  For a standard server, it’s fairly simple.  We need to know two things:

RAID stripe size
    Number of unique, utilized disks in the RAID.  This turns out to be the same as the size formulas I gave above:
        RAID 1+0:  is a set of mirrored drives, so the number here is num drives / 2.
        RAID 5: is striped drives plus one full drive of parity, so the number here is num drives – 1.
In our case, it is RAID 1+0 64k stripe with 8 drives.  Since those drives each have a mirror, there are really 4 sets of unique drives that are striped over the top.  Using these numbers, we set the ‘su’ and ‘sw’ options in mkfs.xfs with those two values respectively.
 
2.3 格式化文件系统
通过以上实例总结执行命令 mkfs.xfs -d su=64k,sw=4 /dev/sda3

3. xfs文件系统的创建
3.1 默认方法
#mkfs.xfs /dev/sdc1
meta-data=/dev/sdc1 isize=256    agcount=18, agsize=1048576 blks
data     =                       bsize=4096   blocks=17921788, imaxpct=25
         =                       sunit=0      swidth=0 blks, unwritten=0
naming   =version 2              bsize=4096  
log      =internal log           bsize=4096   blocks=2187, version=1
         =                       sunit=0 blks
realtime =none                   extsz=65536  blocks=0, rtextents=0

3.2 指定块和内部log大小

# mkfs.xfs -b size=1k -l size=10m /dev/sdc1
meta-data=/dev/sdc1 isize=256    agcount=18, agsize=4194304 blks
data     =                       bsize=1024   blocks=71687152, imaxpct=25
         =                       sunit=0      swidth=0 blks, unwritten=0
naming   =version 2              bsize=4096  
log      =internal log           bsize=1024   blocks=10240, version=1
         =                       sunit=0 blks
realtime =none                   extsz=65536  blocks=0, rtextents=0
3.3 使用逻辑卷做为外部日志的卷
# mkfs.xfs -l logdev=/dev/sdh,size=65536b /dev/sdc1
meta-data=/dev/sdc1              isize=256    agcount=4, agsize=76433916
blks
         =                       sectsz=512   attr=2
data     =                       bsize=4096   blocks=305735663,
imaxpct=5
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =/dev/sdh               bsize=4096   blocks=65536, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

3.3 目录块

# mkfs.xfs -b size=2k -n size=4k /dev/sdc1
meta-data=/dev/sdc1              isize=256    agcount=4,
agsize=152867832 blks
         =                       sectsz=512   attr=2
data     =                       bsize=2048   blocks=611471327,
imaxpct=5
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal log           bsize=2048   blocks=298569, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

3.4 扩展文件系统
新增的空间不会使原有文件系统上的文件不会被改动,而且被增加的空间变成可用的附加的文件存储
XVM支持xfs系统的扩展
# xfs_growfs /mnt
meta-data=/mnt                   isize=256    agcount=30, agsize=262144 blks
data     =                       bsize=4096   blocks=7680000, imaxpct=25
         =                       sunit=0      swidth=0 blks, unwritten=0
naming   =version 2              bsize=4096  
log      =internal               bsize=4096   blocks=1200 version=1
         =                       sunit=0 blks
realtime =none                   extsz=65536  blocks=0, rtextents=0
data blocks changed from 7680000 to 17921788

4. 文件系统的维护
4.1 碎片的整理
查看文件块状况: xfs_bmap -v file.tar.bz2
查看磁盘碎片状况: xfs_db -c frag -r /dev/sda1
整理碎片: xfs_fsr /dev/sda1

mountpoint与device要区别

挂载点
[[email protected] ~]# xfs_info /root
meta-data=/dev/mapper/centos-root isize=256    agcount=4, agsize=3110656 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0        finobt=0
data     =                       bsize=4096   blocks=12442624, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=0
log      =internal               bsize=4096   blocks=6075, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

设备名,(下面输出比较多)
[[email protected] ~]# xfs_logprint /dev/mapper/centos-root|more

[[email protected] ~]# xfs_bmap /var/log/messages
/var/log/messages:
        0: [0..119]: 6304..6423
        1: [120..127]: 6440..6447
        2: [128..135]: 6464..6471
[[email protected] ~]# xfs_bmap /var/log/secure
/var/log/secure:
        0: [0..7]: 6424..6431
        1: [8..15]: 6456..6463
        2: [16..23]: 6592..6599
[[email protected] ~]# xfs_bmap -v /var/log/messages
/var/log/messages:
 EXT: FILE-OFFSET      BLOCK-RANGE      AG AG-OFFSET        TOTAL
   0: [0..119]:        6304..6423        0 (6304..6423)       120
   1: [120..127]:      6440..6447        0 (6440..6447)         8
   2: [128..135]:      6464..6471        0 (6464..6471)         8

[[email protected] ~]# xfs_db -c frag -r /dev/xvda1
actual 326, ideal 324, fragmentation factor 0.61%

[[email protected] ~]# xfs_db -c frag -r /dev/xvda2
xfs_db: /dev/xvda2 is not a valid XFS filesystem (unexpected SB magic number 0x00000000)
Use -F to force a read attempt.
因为/dev/xvda2是一个pv,它没有包含文件系统

[[email protected] ~]# xfs_db -c frag -r /dev/mapper/centos-root
actual 20226, ideal 20092, fragmentation factor 0.66%
[root[email protected] ~]# xfs_db -c frag -r /dev/centos/root
actual 20239, ideal 20103, fragmentation factor 0.67%
[[email protected] ~]# xfs_db -c frag -r /dev/dm-0
actual 20239, ideal 20103, fragmentation factor 0.67%

时间: 2024-10-10 09:30:27

xfs文件系统的相关文章

xfs文件系统的安装

xfs文件系统依赖如下几个安装包: 安装次序如下: 1}xfsprogs-3.1.1-10.el6.x86_64.rpm 2)xfsprogs-devel-3.1.1-10.el6.x86_64.rpm 3)xfsdump-3.0.4-3.el6.x86_64.rpm 如果安装其他两个安装包会出现如下的错误: [[email protected] ~]# rpm -ivh xfsdump-3.0.4-3.el6.x86_64.rpm warning: xfsdump-3.0.4-3.el6.x8

xfs文件系统修复方法

首先尝试mount和umount文件系统,以便重放日志,修复文件系统,如果不行,再进行如下操作. 1.检查文件系统:先确保umount xfs_check /dev/sdd(盘符); echo $? 返回0表示正常 2.执行xfs_repair -n,检查文件系统是否损坏,如何损坏会列出将要执行的操作 如果幸运的话,会发现没有问题,你可以跳过后续的操作.该命令将表明会做出什么修改,一般情况下速度很快,即便数据量很大,没理由跳过. 3.执行xfs_repair修复文件系统 xfs_repair /

大容量磁盘使用XFS文件系统

安装xfs工具 yum install -y xfs* 分区 partedprintmklabel gptmkpart 使用xfs格式化 mkfs.xfs /dev/sdc1mkdir data 挂载 mount -t xfs /dev/sdc1 /data 使重启挂载生效 #vi /etc/fstabtmpfs /dev/shm tmpfs defaults 0 0devpts /dev/pts devpts gid=5,mode=620 0 0sysfs /sys sysfs default

Linux XFS文件系统描述观察及磁盘命令详解

XFS文件系统的描述数据观察 EXT 家族的 dumpe2fs 去观,而XFS 家族用 xfs_info 去观察 [[email protected] ~]# xfs_info挂载点|装置文件名 [[email protected] ~]# df - - T /boot Filesystem      Type     1K-blocks     Used     Available     Use%     Mounted on /dev/vda2        xfs     1038336

文件的基本管理和XFS文件系统备份恢复

1.1  Linux系统目录结构,相对/绝对路径. 1.2  创建/复制/删除文件,rm -rf / 意外事故 1.3查看文件内容 1.4实战-xfs文件系统的备份和恢复 1.1  Linux系统目录结构,相对/绝对路径. 1.1.1  linux系统目录结构 Linux系统中有没有所谓的本地磁盘C D E? / 通常称为根分区. 所有的文件和目录的起始点 只有root用户对此目录拥有写权限.   /etc  /etc/passwd 账号文件  /etc/init.d/network等. 配置文

Linux零基础入学之1-4 Linux文件管理-xfs文件系统的备份恢复-服务器来电后自动开机

[本节内容] Linux系统目录结构 相对/绝对路径 创建/复制/删除文件 rm -rf / 意外事故 查看文件内容 xfs文件系统的备份和恢复  (在rhel6.5上做) 服务器来电后自动开机 [linux系统的目录结构] Linux是单根目录,单根组织文件 /    根分区 所有文件和目录由此开始.只有root用户对此目录有写权限 例:cd /        #查看根目录下的文件 /etc   配置文件目录 包含所有应用程序的配置文件,也包含启动.关闭某个特定 程序的脚本    例如: /e

xfs文件系统元数据损坏修复

XfS文件系统是SGI开发的高级日志文件系统,XFS极具伸缩性,非常健壮. 关于其安装和使用和ext4都是一样,就是格式化不一样. 其次是格式化都是一样的,它可以支持ext4单个文件超过16T的限制. #/sbin/mkfs.xfs –f /dev/sda6 #mount –t xfs /dev/sda6 /xfs 关于其经常会出现错误,进行修复 $ cd /data3 $ ls ls: cannot open directory .: Input/output error 修改包括三步:卸载,

大分区使用xfs文件系统存储备份遇到的问题

日前,同事反馈一个问题:在一个大分区(24T)中使用xfs文件系统,用来做历史文件备份,突然提示没有磁盘空间错误,先检查下: [[email protected] ~]# df -hT Filesystem    Type    Size  Used Avail Use% Mounted on /dev/sdb1      xfs     19T   16T  2.4T  88% /backup [[email protected] ~]# df -hi Filesystem          

由异常掉电问题---谈xfs文件系统

本文皆是作者自己的学习总结或感悟(linux环境),如有不对,欢迎提出一起探讨!! 目录结构 一.相关知识 二.问题提出 三.处理方法 四.最终结果 一.相关知识 1.xfs文件系统(概念性知识网上很多,自己去查喽) 文件系统的定义: 文件系统是操作系统用于明确存储设备(常见的是磁盘,也有基于NAND Flash的固态硬盘)或分区上的文件的方法和数据结构:即在存储设备上组织文件的方法. xfs文件系统: 是一个日志型文件系统 日志文件系统?加一个日志来记录文件系统的更改,即使在断电或者是操作系统

令人失望的xfs文件系统

公司这几年买了好几台不知名小企业的NAS存储,用于备份各种资源,每台存储根据硬盘数,12或24块分配一个卷,每块SATA2硬盘容量2或3TB.购买时,已经做了Raid6,文件系统统一使用xfs.网上都说xfs性能高.稳定性好,对于合作方购买的两台HP光存储,10块600GB SAS 6G/s硬盘,也做了Raid6配置,同时都格式化为xfs. 结果悲剧从此开始了.公司内部存储,几次都发生了文件无法访问的问题,每次都是通过联系NAS存储供应商的技术QQ,远程SSH登录存储系统内部,通过xfs_rep