前段时间,发生了一个问题引起了我对IO队列深度的研究。
存储服务器中linux kernel的mpt2sas驱动模块,将max_queue_depth设置为1024时,引起系统加载驱动时卡死,而调整为512则没问题。
后来看了很多这方面的资料,终于弄明白了。
我们为了追求系统的性能,往往将max_queue_depth设置的很大。但是并不是越大对性能越有帮助。
以下内容全部出自转载,我偷下懒!
(1)
探秘I/O队列对磁盘性能的影响
转载请在文首保留原文出处:EMC中文支持论坛https://community.emc.com/go/chinese
介绍
信息传输过程中数据通常暂存于磁盘队列。实验表明,随着服务器性能的不断提高,磁盘I/O队列常常成为影响磁盘响应速度的首要瓶颈。本文以AIX系统为例,描述了I/O队列在磁盘中的工作原理、监测命令,以及如何对其进行优化以提升磁盘性能。
使用I/O队列的意义:
为何要对磁盘I/O进行并行处理呢?主要目的是提升应用程序的性能。这一点对于多物理磁盘组成的虚拟磁盘(或LUN)显得尤为重要。如果一次提交一个I/O,虽然响应时间较短,但系统的吞吐量很小。相比较而言,一次提交多个I/O既缩短了磁头移动距离(通过电梯算法),同时也能够提升IOPS。假如一部电梯一次只能搭乘一人,那么每个人一但乘上电梯,就能快速达到目的地(响应时间),但需要耗费较长的等待时间(队列长度)。因此一次向磁盘系统提交多个I/O能够平衡吞吐量和整体响应时间。
理论上,磁盘的IOPS取决于队列长度÷平均IO响应时间。假设队列长度为3,平均IO响应时间是10ms,则最大吞吐量是300 IOPS。
IO队列位于何处:
以AIX系统为例,从应用层到磁盘物理层的IO堆栈如下所示,IO按照从上至下的顺序遍历堆栈:
- 应用程序层
- 文件系统层(可选)
- LVM设备驱动层(可选)
- SDD或SDDPCM或其他多路径驱动层(如果使用)
- hdisk设备驱动层
- adapter设备驱动层
- 磁盘接口层
- 磁盘子系统层
- 磁盘层
AIX在每一层堆栈都会监测IO,因此堆栈的每一层都有IO队列。通常,如果当前各层执行的IO 超过了队列长度所限制的最大数量,这些IO将暂存于等待队列中,直至获取申请资源。在文件系统层,文件系统缓存限制了各文件系统的最大可执行IO数量。 LVM设备驱动层,可执行的最大IO数量受hdisk缓存的限制。在SDD层,如果dpo设备的qdepth_enable属性设置成yes,则会建立 IO队列,但也有些版本无法设置队列。SDDPCM在将IO发送至磁盘设备驱动层之前没有进行队列处理。hdisk通过queue_depth参数设置最大响应IO数量, 而FC适配层的参数为num_cmd_elems。磁盘子系统层有IO队列,单块物理磁盘可接收多个IO请求但一次只能处理一个IO。
IO队列监测命令:
以AIX为例,AIX 5.3及以上版本,可用iostat和sar –d命令监测hdisk队列,iostat -D命令输出如下:
hdisk6 xfer: %tm_act bps tps bread bwrtn
4.7 2.2M 19.0 0.0 2.2M
read: rps avgserv minserv maxserv timeouts fails
0.0 0.0 0.0 0.0 0 0
write: wps avgserv minserv maxserv timeouts fails
19.0 38.9 1.1 190.2 0 0
queue: avgtime mintime maxtime avgwqsz avgsqsz sqfull
15.0 0.0 83.7 0.0 0.0 136
这里,avgwqsz是平均等待队列长度,avgsqsz是平均响应队列长度。在等待队列中花费的平均等待时间是avgtime。sqfull值代表每秒钟向已满队列提交的IO数。对于有cache的磁盘子系统,IO响应时间会有所不同。iostat –D命令显示的是系统从启动后的统计数据。
从应用程序的角度来看,处理IO的总时间是响应时间加上在hdisk等待队列中的时间。
sar –d命令输出如下:
16:50:59 device %busy avque r+w/s Kbs/s avwait avserv
16:51:00 hdisk1 0 0.0 0 0 0.0 0.0
hdisk0 0 0.0 0 0 0.0 0.0
avwait和avserv分别是花费在等待队列和响应队列的时间,avque在AIX 5.3以上版本中,代表等待队列中的平均IO数量。
优化方法:
首先,不应盲目增加以上队列参数值。这样有可能造成磁盘子系统过载或在启动时引起设备配置报错。因此,仅增加hdisk
的queue_depths值并不是最好的方法,而应该同时调整可提交最大IO数量。当queue_depths和发送至磁盘子系统的IO数量同时增加
时,IO响应时间可能会增加,但同时吞吐量也得到了提升。当IO响应时间接近磁盘超时时间,则说明所提交IO超过了磁盘能够处理的界限。如果看到IO超时
并在错误日志中报出IO无法完成,说明可能有硬件问题,或需要缩短队列。
调整queue_depths的一条法则是:对于随机读写或队列未满的情况,如果IO响应时间超过15ms,就不能再增加queue_depths值。一旦IO响应时间增加,瓶颈就从磁盘和adapter队列转移至磁盘子系统。调整队列长度应依据:1)实际应用程序产生的IO请求数,2)使用测试工具以观察磁盘子系统的处理能力。其中,1)为主要依据。
IO队列有以下四种状态:
- 队列已满,IO等在hdisk或adapter驱动层
- 队列未满,IO响应时间短
- 队列未满,IO响应时间长
- 队列未满,IO提交速度快于存储处理速度并导致IO丢失
我们需要把队列调整为2或3的状态。情况3表明瓶颈不在hdisk驱动层,而很有可能在磁盘子系统自身,也有可能位于adapter驱动层或SAN。
第4种情况是应该避免的。受限于存储IO请求和数据的内存大小,所有磁盘和磁盘子系统都有IO执行数量的限制。当存储丢失IO时,主机端超时,IO将被重新提交,同时等待该IO的事件将被暂停。CPU为了处理IO多做了很多事情,这种情况应该避免。如果IO最终失败,将会导致应用程序崩溃或更严重的结果。所以必须仔细确认存储的处理极限。
合理的平均IO响应时间:
假设队列中没有IO,一次读操作将会占据0至15ms,取决于寻址时间,磁盘转速,以及数据传输时间。之后数据从存储移动至主机。有时数据位于磁盘读缓存,这种情况下IO响应时间约为1ms。对于大型磁盘系统在正常工作状态下,平均IO响应时间约为5-10ms。当随机读取小数据耗时超过15ms时,表明存储较为繁忙。
写操作通常将数据写入cache中,平均耗时不到2.5ms。但是也有例外:如果存储同步将数据镜像至远端,写操作将耗费更长时间。如果写入数据量较大(多于64KB)则数据传输时间会显著增加。没有cache的情况下,写时间的读时间差不多。
如果IO是大块顺序读写,除了传输时间较长,IO会暂存于磁盘物理层队列,IO响应时间远高于平均值。例如:应用提交50个IO(50个64KB顺序读),最初几个IO会获得较快的响应时间,而最后一个IO必须等待其他49个完成,从而耗费很长的响应时间。
(2)
queue_depth参数介绍及调整步骤
2011-08-25 10:01:30| 分类: AIX |举报 |字号 订阅
queue_depth参数大小 | |||
|
queue_depth参数会影响disk i/o性能,特别是在数据库等i/o密集性应用中。适当调整设置此参数,会提高整体应用的性能。下面是在AIX 5.3,IBM ds4300上调整此参数的步骤及注意事项,记录一下。
下面物理磁盘hdisk2是基于IBM存储上的,做的raid 5,此盘属于vg datavg中。
一,首先备份datavg.在生产环境作任何调整,一定要切记安全第一,备份是必不可少的。
#smit savevg
二,查看所需修改的hdisk2上queue_depth的值。
#lsattr -El hdisk2|grep queue_depth
三,首先umount datavg上的文件系统。
#umount /u2
四,vary off vg。
#varyoffvg datavg
五,删除磁盘hdisk2.
#rmdev -l hdisk2
六,修改磁盘hdisk2 queue_depth参数.
#chdev -l hdisk2 -a queue_depth=16(此值为所需修改的具体queue_depth值) -P
七,增加磁盘hdisk2.
#mkdev -l hdisk2
八,vary on vg.
#varyonvg datavg
九,mount datavg上文件系统
#mount /u2
十,最后查看一下queue_depth参数是否修改成功。
#lsattr -El hdisk2|grep queue_depth
如上面查看queue_depth值已变成所需值,则整个过程完成。如有条件,最好能重?一下机器。应注意的是此值如设置不合理,可能会导致系统hang住,或死机现象。
本人曾亲自踫到由于此值设置过大,导致系统出现异常,init进程始终占用cpu在20%左右,syscal长期在200k以上,waitqueue值也很高,严重影响了系统性能。因此,要注意此值调整以后应注意监测一段时间,直到调整到一个合适值。
引文地址:
http://www.aixchina.net/home/space.php?uid=10273&do=blog&id=19603
http://www-900.ibm.com/cn/support/viewdoc/detail?DocId=1314043000000
http://www.360doc.com/content/10/1112/10/2245786_68687833.shtml
IO队列深度max_queue_depth对系统性能的影响