DS4000在LVM层面mirror的问题

DS4000在LVM层面mirror的问题
方案:
    两台DS4000,通过两台SAN交换机,交叉连接到两台P55A服务器,两台DS4000上的之间LUN在AIX LVM上建立mirror关系。

环境:
   DS4700×2;P55A(HBA×2)×2;B16×2。

过程:
   B16上划分zone,4700上做RAID、LUN,P55A识别一切正常。

   P55A的AIX建立VG、LV、FS,将分属两台4700的LUN所对应的hdisk加入,并且做mirror,一切顺利。

测试方案:
    用户提出的其中一个测试方案是在其中一台DS4700彻底下线的时候,
    另一台可以立即顶上,也就是把一台DS4700关掉,或者把两根光纤全部拔掉,
    通过这种方法确认LVM mirror可以保证数据的多份镜像,并且在需要的时候可以立即顶上。

测试方法:
    拔光纤的同时,用time touch testfile来计算文件系统挂起时间。

问题:
    在彻底断掉一个DS4700的两根光纤后,发现time touch testfile返回结果大约为15分钟,
    也就是说当其中一个DS4700彻底挂掉以后,需要15分钟FS才能恢复工作。用户对这个挂起时间严重不满意,
    并且表示这个时间应该是在秒级,也就是说正常使用应该是几乎没有感觉的。

分析:
    内置的SCSI disk如果在LVM mirror后,拔盘测试确实可以非常快的结束挂起(但是没有掐过表),
    所以这个问题应该存在FC和SCSI之间不同的地方。
    可能相关的属性如下:
server1/>lsattr -El hdisk6
PR_key_value     none                      Persistant Reserve Key Value        True
max_transfer      0x100000                 Maximum TRANSFER Size               True
queue_depth     10                         Queue Depth                         True
reassign_to        120                     Reassign Timeout value              True
reserve_policy    single_path              Reserve Policy                      True
rw_timeout       30                        Read/Write Timeout value            True

server1/>lsattr -El fcs0
init_link              al                         INIT Link flags                                True
lg_term_dma      0x800000                         Long term DMA                                  True
max_xfer_size     0x100000                        Maximum Transfer Size                          True
num_cmd_elems 200                   Maximum number of COMMANDS to queue to the adapter           True
pref_alpa            0x1                          Preferred AL_PA                                True
sw_fc_class         2                             FC Class for Fabric                            True

server1/>lsattr -El dar0
aen_freq            600             Polled AEN frequency in seconds                     True
autorecovery      no               Autorecover after failure is corrected               True
balance_freq      600              Dynamic Load Balancing frequency in seconds          True
held_in_reset     none            Held-in-reset controller                              True
hlthchk_freq      600              Health check frequency in seconds                    True
load_balancing   no                Dynamic Load Balancing                               True
switch_retries    5                  Number of times to retry failed switches           True

server1/>lsattr -El fscsi0
dyntrk              no                Dynamic Tracking of FC Devices               True
fc_err_recov     delayed_fail    FC Fabric Event Error RECOVERY Policy             True
sw_fc_class       3                 FC Class for Fabric                            True

server1/>lsattr -El fcs0
init_link             al                  INIT Link flags                                                             True
lg_term_dma     0x800000       Long term DMA                                         True
max_xfer_size    0x100000       Maximum Transfer Size                                True
num_cmd_elems 200              Maximum number of COMMANDS to queue to the adapter    True
pref_alpa          0x1                Preferred AL_PA                                True
sw_fc_class       2                   FC Class for Fabric                            True

解决:
1,首先从OS中可能影响FS性能的参数下手,修改/sbin/rc.boot文件中syncd设为10。
没有效果

2,修改逻辑卷中跟mirror有直接关系的两个参数
     qorume off
     MWC off

3,修改fc的参数
chdev -l fscsi0 -a fc_err_recov=fast_fail
前面三步执行完后,挂起时间缩短到5分钟左右。

4,修改阵列的参数
chdev -l dar0 -a switch_retries=0
这四步完成后,挂起时间缩短到大约90秒

5,再修改其他参数也没有明显的效果。

到此,用户对我的耐性到达极点,IBM派人处理,2天后,IBM也只是能做到90秒左右的挂起时间,并且出说明函给用户。

总结:
   DS4000在LVM mirror镜像可以进一步保证数据的可靠性,但是在挂起时间方面不太理想,
   虽然经过调整后时间大大缩短,但是除了第一步sync的和第三步中修改fc的fast_fail以外,
   其他修改可能会带来数据不一致等一些降低可靠性的问题

DS4000在LVM层面mirror的问题

时间: 2024-10-08 07:06:54

DS4000在LVM层面mirror的问题的相关文章

Centos 7 下使用Falcon的资源池 并配置为LVM mirror

Centos 7 下使用Falcon的资源池并配置为LVM mirror 首先得保证Falcon的设备上已经存在一个可以使用的资源池 操作环境 # uname –a Linux ZZSRV1.localdomain 3.10.0-123.el7.x86_64 #1SMP Mon Jun 30 12:09:22 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux #cat /etc/redhat-release CentOS Linuxrelease 7.0.1406

LVM Mirror Raid1管理

测试环境:CentOS 5.10 x64,sda 20G,sdb 1G,sdc 2G. 一.创建逻辑卷镜像关系的步骤:1)通过pvcreate命令将linux分区处理成物理卷(PV):2)通过vgcreate命令将创建好的物理卷处理成卷组(Vg):3)通过lvcreate命令使用–m1 参数将卷若干个PV组成一个逻辑镜像卷(Lv):之后我们可以对镜像逻辑卷进行格式化,挂载,删除等操作. 二.创建磁盘分区 首先将sbc和sdc分区,并创建三个pv(sdb1.sdc1.sdc2),其中sdb1作为数

linux基础学习-第十五天 磁盘管理(SWAP、dd、quota、RAID、LVM)

2016-08-26: 授课内容: 1.SWAP交换分区的创建 2.dd命令的使用 3.设定文件系统配额 4.设定和管理软RAID设备 5.配置逻辑卷 1.swap (1)SWAP分区:模拟内存,当物理内存不足时,进程需要内存资源是,内存会把一部分没有在用的进程分页挪到硬盘的模拟内存中,腾出空间被现在需要使用内存资源的进程 即其作用是可以允许内存过载使用,windows系统也有类似的机制,由于虚拟内存空间是建立在硬盘之上,所以其速度和性能会大打折扣,所以适合临时使用 (2)创建SWAP分区: 相

LVM逻辑卷_学习笔记

LVM学习笔记: MD(Multi Device) DM(Device Mapper) 逻辑设备 RAID.LVM2 架构: 由DM主模块和多个子模块构成: 子模块: linear:线性设备,类似于jbod:可将多个磁盘上的存储空间装载到一起当作一个存储块来使用 mirror:类似于镜像 snapshot:快照,是访问同一个数据的另一条路径,类似于软连接 作用: 保留数据在做快照那一刻的状态 multipath:多路径:可实现数据多路径的寻路,可以实现多根线传输. LVM: 作用:能够动态增加或

iscsI服务的配置+lvm逻辑卷 高可用(HA)集群铺设的业务Apache+iscsI服务的配置

主机环境 redhat6.5 64位 实验环境 服务端1 ip 172.25.29.1 主机名:server1.example.com ricci iscsi  apache     服务端2 ip 172.25.29.2  主机名:server2.example.com ricci iscsi  apache     管理端1 ip 172.25.29.3  主机名:server3.example.com  luci  scsi     管理端2 ip 172.25.29.250     fe

archlinux安裝手记(Win10+Arch、GPT+UEFI、lvm)

准备工具和设置制作启动盘连接网络硬盘分区规划分区LVM方案创建文件系统分区挂载激活lvm2钩子基础安装和配置配置镜像源基础系统安装fstab进入系统initramfs引导程序网络设置搭建使用环境用户管理用户和密码sudo时间主机名图形界面显卡驱动X-window字体桌面环境/窗口管理器安装启动方式声音管理连接设备U盘和MTP触摸板软件包管理器pacmanyaourt本地化Locale设置默认显示语言输入工具ibus其他问题解决高分辨率(HIDPI)蜂鸣声(beep/错误提示音)带Nvidia显卡

linux自学之路·LVM卷

前言 做LVM跟md一样需要创建逻辑设备的模块叫做dm DM:逻辑设备Device Mapper 可以做RAID0  RAID1  LVM2 linear  mirror snapshot(快照)  multipath(多路径) 能够动态缩减和增加逻辑卷大小 LVM卷自下而上分为: PV物理卷 物理磁盘层:在物理卷中逻辑存储的空间块叫PE VG卷组 由很多PE组成 LV逻辑卷 LE逻辑盘区,PE转换而来 快照卷必须跟LV在一起 管理物理卷pv          物理卷可以做在RAID.分区.磁盘

LVM之一

linux 下的md和dm模块: md(Multiple devices): A Btrfs filesystem can be created on top of many devices, and more devices can be added after the FS has been created. By default, metadata will be mirrored across two devices and data will be striped across all

raid lvm介绍

RAID RAID:RedundantArrays of Inexpensive/Independant Disks 即磁盘阵列 RAID可以通过一些技术将多个小的磁盘整合成为一个较大的磁盘设备:而这个较大的磁盘功能可不止是存储而已,它还具有数据保护的功能 RAID的分类: 硬件RAID:是通过磁盘阵列卡来完成数组的目的.磁盘阵列卡上面有一块专门的芯片在处理RAID的任务,因此在性能方面会比较好.在很多任务时磁盘阵列并不会重复消耗原本系统的I/O总线,理论上性能会较佳. 软件RAID:主要是通过