Linux预热之网络性能问题

一. CPU性能评估

1.vmstat  [-V]  [-n]  [depay  [count]]

-V : 打印出版本信息,可选参数

-n : 在周期性循环输出时,头部信息仅显示一次

delay : 两次输出之间的时间间隔

count : 按照delay指定的时间间隔统计的次数。默认是1

如:vmstat 1 3

[email protected]:~$ vmstat 1 3

procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----

r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa

0  0      0 1051676 139504 477028    0    0    46    31  130  493  3  1 95  2

0  0      0 1051668 139508 477028    0    0     0     4  377 1792  3  1 95  0

0  0      0 1051668 139508 477028    0    0     0     0  327 1741  3  1 95  0

r : 运行和等待CPU时间片的进程数(若长期大于CPU的个数,说明CPU不足,需要增加CPU)【注意】

b : 在等待资源的进程数(如等待I/O或者内存交换等)

swpd : 切换到内存交换区的内存数量,单位kB

free : 当前空闲物理内存,单位kB

buff : buffers cache的内存数量,一般对块设备的读写才需要缓存

cache : page cached的内存数量,一般作为文件系统cached,频繁访问的文件都会被cached

si : 由磁盘调入内存,即内存进入内存交换区的数量

so : 内存调入磁盘,内存交换区进入内存的数量

bi : 从块设备读入数据的总量,即读磁盘,单位kB/s

bo : 写入到块设备的数据总量,即写磁盘,单位kB/s

in : 某一时间间隔中观测到的每秒设备中断数

cs : 每秒产生的上下文切换次数

us :用户进程消耗的CPU时间百分比【注意】

sy : 内核进程消耗CPU时间百分比【注意】

id : CPU处在空闲状态的时间百分比【注意】

wa :IO等待所占用的CPU时间百分比

如果si、so的值长期不为0,表示系统内从不足,需要增加系统内存

bi+bo参考值为1000,若超过1000,且wa较大,表示系统IO有问题,应该提高磁盘的读写性能

in与cs越大,内核消耗的CPU时间就越多

us+sy参考值为80%,如果大于80%,说明可能存在CPU资源不足的情况

综上所述,CPU性能评估中重点注意r、us、sy和id列的值。

2. sar  [options]  [-o  filename]  [interval  [count] ]

options:

-A :显示系统所有资源设备(CPU、内存、磁盘)的运行状态

-u : 显示系统所有CPU在采样时间内的负载状态

-P : 显示指定CPU的使用情况(CPU计数从0开始)

-d : 显示所有硬盘设备在采样时间内的使用状况

-r : 显示内存在采样时间内的使用状况

-b : 显示缓冲区在采样时间内的使用情况

-v : 显示进程、文件、I节点和锁表状态

-n : 显示网络运行状态。参数后跟DEV(网络接口)、EDEV(网络错误统计)、SOCK(套接字)、FULL(显示其它3个参数所有)。可单独或一起使用

-q : 显示运行队列的大小,与系统当时的平均负载相同

-R : 显示进程在采样时间内的活动情况

-y : 显示终端设备在采样时间内的活动情况

-w : 显示系统交换活动在采样时间内的状态

-o : 将命令结果以二进制格式存放在指定的文件中

interval : 采样间隔时间,必须有的参数

count : 采样次数,默认1

如:sar  -u  1 3

[email protected]:~$ sar -u 1 3

Linux 2.6.35-27-generic (user1-desktop)     2011年03月05日     _i686_    (2 CPU)

09时27分18秒     CPU     %user     %nice   %system   %iowait    %steal     %idle

09时27分19秒     all      1.99      0.00      0.50      5.97      0.00     91.54

09时27分20秒     all      3.90      0.00      2.93      5.85      0.00     87.32

09时27分21秒     all      2.93      0.00      1.46      4.39      0.00     91.22

平均时间:     all      2.95      0.00      1.64      5.40      0.00     90.02

%user : 用户进程消耗CPU时间百分比

%nice : 运行正常进程消耗CPU时间百分比

%system : 系统进程消耗CPU时间百分比

%iowait : IO等待多占用CPU时间百分比

%steal : 内存在相对紧张坏经下pagein强制对不同页面进行的steal操作

%idle : CPU处在空闲状态的时间百分比

3. iostat  [-c | -d]  [-k]  [-t]  [-x [device]]  [interval [count]]

-c :显示CPU使用情况

-d :显示磁盘使用情况

-k : 每秒以k bytes为单位显示数据

-t : 打印出统计信息开始执行的时间

-x device : 指定要统计的磁盘设备名称,默认为所有磁盘设备

interval : 制定两次统计时间间隔

count : 统计次数

如: iostat  -c

[email protected]:~$ iostat -c

Linux 2.6.35-27-generic (user1-desktop)     2011年03月05日     _i686_    (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle

2.51    0.02    1.27    1.40    0.00   94.81

(每项代表的含义与sar相同)

4. uptime ,如:

[email protected]:~$ uptime

10:13:30 up  1:15,  2 users,  load average: 0.00, 0.07, 0.11

显示的分别是:系统当前时间,系统上次开机到现在运行了多长时间,目前登录用户个数,系统在1分钟内、5分钟内、15分钟内的平均负载

注意:load average的三个值一般不能大于系统CPU的个数,否则说明CPU很繁忙

二 . 内存性能评估

1.  free

2.  watch 与 free 相结合,在watch后面跟上需要运行的命令,watch就会自动重复去运行这个命令,默认是2秒执行一次,如:

Every 2.0s: free                                        Sat Mar  5 10:30:17 2011

total       used       free     shared    buffers     cached

Mem:       2060496    1130188     930308          0     261284     483072

-/+ buffers/cache:     385832    1674664

Swap:      3000316          0    3000316

(-n指定重复执行的时间,-d表示高亮显示变动)

3.使用vmstat,关注swpd、si和so

4. sar  -r,如:

[email protected]:~$ sar -r 2 3

Linux 2.6.35-27-generic (user1-desktop)     2011年03月05日     _i686_    (2 CPU)

10时34分11秒 kbmemfree kbmemused  %memused kbbuffers  kbcached  kbcommit  %commit

10时34分13秒    923548   1136948     55.18    265456    487156   1347736     26.63

10时34分15秒    923548   1136948     55.18    265464    487148   1347736     26.63

10时34分17秒    923548   1136948     55.18    265464    487156   1347736     26.63

平均时间:    923548   1136948     55.18    265461    487153   1347736     26.63

kbmemfree : 空闲物理内存

kbmemused : 已使用物理内存

%memused : 已使用内存占总内存百分比

kbbuffers : Buffer Cache大小

kbcached : Page Cache大小

kbcommit : 应用程序当前使用内存大小

%commit : 应用程序使用内存百分比

三 . 磁盘I/O性能评估

1. sar -d ,如:

[email protected]:~$ sar -d 1 3

Linux 2.6.35-27-generic (user1-desktop)     2011年03月05日     _i686_    (2 CPU)

10时42分27秒       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util

10时42分28秒    dev8-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00

10时42分28秒       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util

10时42分29秒    dev8-0      2.00      0.00     64.00     32.00      0.02      8.00      8.00      1.60

10时42分29秒       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util

10时42分30秒    dev8-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00

平均时间:       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util

平均时间:    dev8-0      0.67      0.00     21.33     32.00      0.01      8.00      8.00      0.53

DEV : 磁盘设备名称

tps : 每秒到物理磁盘的传送数,即每秒的I/O流量。一个传送就是一个I/O请求,多个逻辑请求可以被合并为一个物理I/O请求

rc_sec/s: 每秒从设备读入的扇区数(1扇区=512字节)

wr_sec/s : 每秒写入设备的扇区数目

avgrq-sz : 平均每次设备I/O操作的数据大小(以扇区为单位)

avgqu-sz : 平均I/O队列的长度

await : 平均每次设备I/O操作的等待时间(毫秒)

svctm :平均每次设备I/O 操作的服务时间(毫秒)

%util : 一秒中有百分之几的时间用用于I/O操作

正常情况下svctm应该小于await,而svctm的大小和磁盘性能有关,CPU、内存的负荷也会对svctm值造成影响,过多的请求也会简介导致svctm值的增加。

await的大小一般取决与svctm的值和I/O队列长度以及I/O请求模式。如果svctm与await很接近,表示几乎没有I/O等待,磁盘性能很好;如果await的值远高于svctm的值,表示I/O队列等待太长,系统上运行的应用程序将变慢,此时可以通过更换更快的硬盘来解决问题。

%util若接近100%,表示磁盘产生I/O请求太多,I/O系统已经满负荷地在工作,该磁盘可能存在瓶颈。长期下去,势必影响系统的性能,可通过优化程序或者通过更换更高、更快的磁盘来解决此问题。

2. iostat  -d

[email protected]:~$ iostat -d 2 3

Linux 2.6.35-27-generic (user1-desktop)     2011年03月05日     _i686_    (2 CPU)

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn

sda               5.89       148.87        57.77    1325028     514144

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn

sda               0.00         0.00         0.00          0          0

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn

sda               0.00         0.00         0.00          0          0

Blk_read/s : 每秒读取的数据块数

Blk_wrtn/s : 每秒写入的数据块数

Blk_read : 读取的所有块数

Blk_wrtn : 写入的所有块数

如果Blk_read/s很大,表示磁盘直接读取操作很多,可以将读取的数据写入内存中进行操作;如果Blk_wrtn/s很大,表示磁盘的写操作很频繁,可以考虑优化磁盘或者优化程序。这两个选项没有一个固定的大小,不同的操作系统值也不同,但长期的超大的数据读写,肯定是不正常的,一定会影响系统的性能。

3. iostat  -x  /dev/sda  2  3  ,对指定磁盘的单独统计

4. vmstat -d

四 . 网络性能评估

1. ping

time值显示了两台主机之间的网络延时情况,若很大,表示网络的延时很大。packets loss表示网络丢包率,越小表示网络的质量越高。

2. netstat  -i ,如:

[email protected]:~$ netstat -i

Kernel Interface table

Iface   MTU Met   RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg

eth0       1500 0   6043239      0      0 0         87311      0      0      0 BMRU

lo        16436 0      2941      0      0 0          2941      0      0      0 LRU

Iface : 网络设备的接口名称

MTU : 最大传输单元,单位字节

RX-OK / TX-OK : 准确无误地接收 / 发送了多少数据包

RX-ERR / TX-ERR : 接收 / 发送数据包时产生了多少错误

RX-DRP / TX-DRP : 接收 / 发送数据包时丢弃了多少数据包

RX-OVR / TX-OVR : 由于误差而遗失了多少数据包

Flg :接口标记,其中:

L :该接口是个回环设备

B : 设置了广播地址

M : 接收所有的数据包

R :接口正在运行

U : 接口处于活动状态

O : 在该接口上禁用arp

P :表示一个点到点的连接

正常情况下,RX-ERR,RX-DRP,RX-OVR,TX-ERR,TX-DRP,TX-OVR都应该为0,若不为0且很大,那么网络质量肯定有问题,网络传输性能也一定会下降。

当网络传输存在问题时,可以检测网卡设备是否存在故障,还可以检查网络部署环境是否合理。

3. netstat -r  (default行对应的值表示系统的默认路由)

4. sar -n  ,n后为DEV(网络接口信息)、EDEV(网络错误统计信息)、SOCK(套接字信息)、和FULL(显示所有)

[email protected]:~$ sar -n DEV 2 3

Linux 2.6.35-27-generic (wangxin-desktop)     2011年03月05日     _i686_    (2 CPU)

11时55分32秒     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

11时55分34秒        lo      2.00      2.00      0.12      0.12      0.00      0.00      0.00

11时55分34秒      eth0      2.50      0.50      0.31      0.03      0.00      0.00      0.00

11时55分34秒     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

11时55分36秒        lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00

11时55分36秒      eth0      1.50      0.00      0.10      0.00      0.00      0.00      0.00

11时55分36秒     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

11时55分38秒        lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00

11时55分38秒      eth0     14.50      0.00      0.88      0.00      0.00      0.00      0.00

平均时间:     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

平均时间:        lo      0.67      0.67      0.04      0.04      0.00      0.00      0.00

平均时间:      eth0      6.17      0.17      0.43      0.01      0.00      0.00      0.00

IFACE : 网络接口设备

rxpck/s : 每秒接收的数据包大小

txpck/s  : 每秒发送的数据包大小

rxkB/s : 每秒接受的字节数

txkB/s : 每秒发送的字节数

rxcmp/s : 每秒接受的压缩数据包

txcmp/s : 每秒发送的压缩数据包

rxmcst/s : 每秒接受的多播数据包

时间: 2024-12-24 20:10:53

Linux预热之网络性能问题的相关文章

Linux网络性能优化方法简析

Linux网络性能优化方法简析 2010-12-20 10:56 赵军 IBMDW 字号:T | T 性能问题永远是永恒的主题之一,而Linux在网络性能方面的优势则显而易见,这篇文章是对于Linux内核中提升网络性能的一些优化方法的简析,以让我们去后台看看魔术师表演用的盒子,同时也看看内核极客们是怎样灵活的,渐进的去解决这些实际的问题. AD:2014WOT全球软件技术峰会北京站 课程视频发布 对于网络的行为,可以简单划分为 3 条路径:1) 发送路径,2) 转发路径,3) 接收路径,而网络性

Linux环境下查看网络性能的基本命令

                 Linux环境下查看网络性能的基本命令 由于Linux经常使用的是字符界面,而且Linux的功能比较强大,具有默认路由功能,相当于网关和路由器.在网络性能方面也比较稳定,而且配置简单.当然在配置网络的时候可能会发生网络的连通性不稳定或者不通.一下命令或许对大家有所帮助: 1.curl & wget 使用curl或wget命令,不用离开终端就可以下载文件.如你用curl,键入curl -O后面跟一个文件路径.wget则不需要任何选项.下载的文件在当前目录. cur

Linux多网口绑定配合华为5700 eth-trunk技术,提高网络性能

在实际的环境中,服务器通过网口绑定技术,可以很容易的实现网口冗余,负载均衡,从而达到高可用的目的,而且可以提升网络的性能,大幅的提升网络I/O. 一般情况下,Linux的多网口绑定使用的是内核中的"bonding"模块,目前发行的各个Linux版本内核中都已经包含了该模块. 这里演示一下绑定的过程.将测试服务器的eth2,eth3两个网卡绑定成一个逻辑接口. 第一步:创建逻辑接口bond0的配置文件: # vim ifcfg-bond0 DEVICE=bond0 BOOTPROTO=n

Linux按照CPU、内存、磁盘IO、网络性能监测

目录[-] Linux性能监测:CPU篇 Linux性能监测:内存篇 Linux性能监测:磁盘IO篇 Linux性能监测:网络篇 系统优化是一项复杂.繁琐.长期的工作,优化前需要监测.采集.测试.评估,优化后也需要测试.采集.评估.监测,而且是一个长期和持续的过程,不 是说现在优化了,测试了,以后就可以一劳永逸了,也不是说书本上的优化就适合眼下正在运行的系统,不同的系统.不同的硬件.不同的应用优化的重点也不同. 优化的方法也不同.优化的参数也不同.性能监测是系统优化过程中重要的一环,如果没有监测

Linux按照CPU、内存、磁盘IO、网络性能监测【转载】

本文转载地址:https://my.oschina.net/chape/blog/159640 Linux按照CPU.内存.磁盘IO.网络性能监测 系统优化是一项复杂.繁琐.长期的工作,优化前需要监测.采集.测试.评估,优化后也需要测试.采集.评估.监测,而且是一个长期和持续的过程,不 是说现在优化了,测试了,以后就可以一劳永逸了,也不是说书本上的优化就适合眼下正在运行的系统,不同的系统.不同的硬件.不同的应用优化的重点也不同. 优化的方法也不同.优化的参数也不同.性能监测是系统优化过程中重要的

Linux 下网络性能优化方法简析

概述 对于网络的行为,可以简单划分为 3 条路径:1) 发送路径,2) 转发路径,3) 接收路径,而网络性能的优化则可基于这 3 条路径来考虑.由于数据包的转发一般是具备路由功能的设备所关注,在本文中没有叙述,读者如果有兴趣,可以自行学习(在 Linux 内核中,分别使用了基于哈希的路由查找和基于动态 Trie 的路由查找算法).本文集中于发送路径和接收路径上的优化方法分析,其中的 NAPI 本质上是接收路径上的优化,但因为它在 Linux 的内核出现时间较早,而它也是后续出现的各种优化方法的基

通过/proc/sys/net/ipv4/优化Linux下网络性能

通过/proc/sys/net/ipv4/优化Linux下网络性能 /proc/sys/net/ipv4/优化1)      /proc/sys/net/ipv4/ip_forward该文件表示是否打开IP转发.0,禁止1,转发 缺省设置:02)      /proc/sys/net/ipv4/ip_default_ttl   该文件表示一个数据报的生存周期(Time To Live),即最多经过多少路由器.   缺省设置:64 增加该值会降低系统性能. 3)      /proc/sys/ne

Linux网络性能评估工具iperf 、CHARIOT测试网络吞吐量

网络性能评估主要是监测网络带宽的使用率,将网络带宽利用最大化是保证网络性能的基础,但是由于网络设计不合理.网络存在安全漏洞等原因,都会导致网络带宽利用率不高.要找到网络带宽利用率不高的原因,就需要对网络传输进行监控,此时就需要用到一些网络性能评估工具,而Iperf就是这样一款网络带宽测试工具,本节将详细介绍一下Iperf的使用. 1. Iperf能做什么 Iperf是一款基于TCP/IP和UDP/IP的网络性能测试工具,它可以用来测量网络带宽和网络质量,还可以提供网络延迟抖动.数据包丢失率.最大

linux性能优化实战-网络性能调优

转自:https://blog.csdn.net/twypx/article/details/80290759 大多数Linux发行版都定义了适当的缓冲区和其他TCP参数,可以通过修改这些参数来分配更多的内存,从而改进网络性能.设置内核参数的方法是通过proc接口,也就是通过读写/proc中的值.幸运的是,sysctl可以读取/etc/sysctl.conf中的值并根据需要填充/proc,这样就能够更轻松地管理这些参数. 下面展示了在互联网服务器上应用于Internet服务器的一些比较激进的网络