w命令
使用w查看系统负载
#load average 一分钟 五分钟 十五分钟 时间段内系统的负载值,单位时间段内,使用CPU的活动的进程数量 #数值为系统逻辑cpu(并非物理cpu)数量为最理想状态 [[email protected] ~]# w 19:54:39 up 2 days, 11:28, 4 users, load average: 0.00, 0.01, 0.05 USER TTY FROM [email protected] IDLE JCPU PCPU WHAT root pts/0 49.77.222.241 19:10 44:39 0.00s 0.00s -bash root pts/1 49.77.222.241 19:47 7:11 0.00s 0.00s -bash root pts/2 49.77.222.241 19:39 15:27 0.00s 0.00s -bash root pts/3 49.77.222.241 19:54 7.00s 0.00s 0.00s w [[email protected] ~]# date Sat Nov 25 19:55:10 CST 2017 #每颗物理cpu上有很多逻辑cpu,1颗物理CPU上可以有两核,每核上有好多逻辑CPU #查看cpu数量,processor为0意味着1颗逻辑cpu,所以为1的时候是最理想状态 [[email protected] ~]# cat /proc/cpuinfo processor : 0 vendor_id : GenuineIntel cpu family : 6 model : 79 model name : Intel(R) Xeon(R) CPU E5-2682 v4 @ 2.50GHz ... ... #w命令第一行与uptime一样 [[email protected] ~]# uptime 20:06:05 up 2 days, 11:39, 5 users, load average: 0.00, 0.03, 0.05
vmstat命令
例如通过w命令得知cpu负载过高,可以通过vmstat得知哪些进程占用cpu,查看系统瓶颈。
[[email protected] ~]# vmstat procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu----- r b swpd free buff cache si so bi bo in cs us sy id wa st 4 0 0 78048 127452 437872 0 0 2 10 12 196 1 1 98 0 0 #vmstat 数字 动态多少秒显示一次 [[email protected] ~]# vmstat 3 procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu----- r b swpd free buff cache si so bi bo in cs us sy id wa st 4 0 0 78112 127456 437900 0 0 2 10 12 197 1 1 98 0 0 0 0 0 77740 127460 437908 0 0 0 24 1281 2660 1 1 97 0 0 0 0 0 77740 127460 437916 0 0 0 9 1268 2657 0 1 99 0 0 ^C #每三秒显示一次,显示4次结束 [[email protected] ~]# vmstat 3 4 procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu----- r b swpd free buff cache si so bi bo in cs us sy id wa st 4 0 0 77732 127476 438056 0 0 2 10 13 198 1 1 98 0 0 1 0 0 77732 127476 438056 0 0 0 8 1235 2611 1 1 98 0 0 0 0 0 77764 127476 438088 0 0 0 0 1180 2563 1 0 99 0 0 0 0 0 77392 127476 438092 0 0 0 0 1191 2582 1 0 99 0 0 # r 为run简写,表示有多少进程处在进行状态,等待使用cpu的进程也算在内 # b 进程等待的数量block # swap 当内存不太够的时候,系统可以把内存里面一部分数据临时放到swap里,数量在持续变换说明内存不够用了 # free buff cache #si so 由swap决定,si有多少kb数据从swap进入到内存中,so 就是从内存出来的数据 #bi bo 与磁盘有关系,从磁盘出来进入到内存的数据为bi,bo为写入到磁盘数据 #us 系统上跑的服务占用cpu的比重,会在us中显示。用户态资源占用cpu百分比 #sy 系统本身进程服务占用cpu百分比 #id 空闲, us + sy + id =100% #wa 等待,有多少个进程在等待cpu
top命令
查看进程使用资源情况
#三秒更新一次, zombie是主进程已经终止而其子进程还存在叫僵尸进程 #st被偷走的cpu百分比 #物理内存 #交换分区 #默认按照cpu使用百分比排序。res物理内存大小kb,按下M键可以安装内存使用排序,按P键回到cpu排序 #按下数字1列出所有单个cpu排序 #可以通过PID杀死进程, kill pid [[email protected] ~]# top top - 20:33:35 up 2 days, 12:07, 6 users, load average: 0.00, 0.09, 0.13 Tasks: 83 total, 1 running, 82 sleeping, 0 stopped, 0 zombie %Cpu(s): 0.3 us, 0.3 sy, 0.0 ni, 99.3 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st KiB Mem : 1016396 total, 74024 free, 375752 used, 566620 buff/cache KiB Swap: 0 total, 0 free, 0 used. 421600 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 1017 root 20 0 1006112 15304 10308 S 0.3 1.5 23:30.54 staragent-c+ 1047 root 20 0 130484 12840 8848 S 0.3 1.3 3:50.11 AliYunDun 1 root 20 0 43204 3596 2412 S 0.0 0.4 0:04.26 systemd 2 root 20 0 0 0 0 S 0.0 0.0 0:00.01 kthreadd 3 root 20 0 0 0 0 S 0.0 0.0 0:02.72 ksoftirqd/0 5 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 kworker/0:0H 7 root rt 0 0 0 0 S 0.0 0.0 0:00.00 migration/0 8 root 20 0 0 0 0 S 0.0 0.0 0:00.00 rcu_bh 9 root 20 0 0 0 0 S 0.0 0.0 0:10.18 rcu_sched 10 root rt 0 0 0 0 S 0.0 0.0 0:00.51 watchdog/0 12 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kdevtmpfs 13 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 netns 14 root 20 0 0 0 0 S 0.0 0.0 0:00.07 khungtaskd 15 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 writeback 16 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 kintegrityd 17 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 bioset 18 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 kblockd #可以查看具体的命令top -c [[email protected] ~]# top -c top - 20:46:40 up 2 days, 12:20, 7 users, load average: 0.00, 0.01, 0.07 Tasks: 85 total, 1 running, 84 sleeping, 0 stopped, 0 zombie %Cpu(s): 1.0 us, 0.7 sy, 0.0 ni, 98.3 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st KiB Mem : 1016396 total, 70888 free, 378232 used, 567276 buff/cache KiB Swap: 0 total, 0 free, 0 used. 418940 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 1017 root 20 0 1006112 15304 10308 S 1.0 1.5 23:35.66 staragent-core 1516 root 20 0 2070408 69488 11024 S 0.7 6.8 12:39.07 /usr/local/cloudmoni+ 1047 root 20 0 130484 12840 8848 S 0.3 1.3 3:50.87 /usr/local/aegis/aeg+ 11782 root 20 0 0 0 0 S 0.3 0.0 0:00.01 [kworker/0:2] 11909 root 20 0 157600 2216 1616 R 0.3 0.2 0:00.01 top -c 1 root 20 0 43204 3596 2412 S 0.0 0.4 0:04.27 /usr/lib/systemd/sys+ 2 root 20 0 0 0 0 S 0.0 0.0 0:00.01 [kthreadd] 3 root 20 0 0 0 0 S 0.0 0.0 0:02.73 [ksoftirqd/0] 5 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 [kworker/0:0H] 7 root rt 0 0 0 0 S 0.0 0.0 0:00.00 [migration/0] 8 root 20 0 0 0 0 S 0.0 0.0 0:00.00 [rcu_bh] 9 root 20 0 0 0 0 S 0.0 0.0 0:10.21 [rcu_sched] 10 root rt 0 0 0 0 S 0.0 0.0 0:00.51 [watchdog/0] 12 root 20 0 0 0 0 S 0.0 0.0 0:00.00 [kdevtmpfs] 13 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 [netns] 14 root 20 0 0 0 0 S 0.0 0.0 0:00.07 [khungtaskd] 15 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 [writeback] #top -bn1 静态一次性显示,适合写脚本使用
sar命令
全面分析系统状态命令,常用于流量监控
#如果sar命令不加任何选项,会自动调用系统保留的历史文件 #每10分钟会把系统状态过滤一遍,保存在文件里, [[email protected] ~]# sar Cannot open /var/log/sa/sa25: No such file or directory #sar历史文件所在目录 [[email protected] ~]# ls /var/log/sa [[email protected] ~]# #网卡流量,每一秒显示一次,显示三次 [[email protected] ~]# sar -n DEV 1 3 Linux 3.10.0-514.26.2.el7.x86_64 (chyuanliuNJ) 11/25/2017 _x86_64_ (1 CPU) 08:57:29 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s 08:57:30 PM eth0 1.01 1.01 0.05 0.12 0.00 0.00 0.00 08:57:30 PM lo 3.03 3.03 0.18 0.18 0.00 0.00 0.00 08:57:30 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s 08:57:31 PM eth0 0.00 2.00 0.00 0.56 0.00 0.00 0.00 08:57:31 PM lo 0.00 0.00 0.00 0.00 0.00 0.00 0.00 08:57:31 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s 08:57:32 PM eth0 0.00 1.01 0.00 0.38 0.00 0.00 0.00 08:57:32 PM lo 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s Average: eth0 0.34 1.34 0.02 0.35 0.00 0.00 0.00 Average: lo 1.01 1.01 0.06 0.06 0.00 0.00 0.00 #rxpck接受到的数据包 txpck发送 rxkB接受到的数据量 txkB发送 #数据包几千还是比较正常,上万就不太正常。 #查看历史数据,保存一个月的数据,25就是25号的数据 [[email protected] ~]# sar -f /var/log/sa/sa25 Linux 3.10.0-514.26.2.el7.x86_64 (chyuanliuNJ) 11/25/2017 _x86_64_ (1 CPU) # -q 系统负载,经常查看历史数据,不加数字 [[email protected] ~]# sar -q 1 4 Linux 3.10.0-514.26.2.el7.x86_64 (chyuanliuNJ) 11/25/2017 _x86_64_ (1 CPU) 09:09:04 PM runq-sz plist-sz ldavg-1 ldavg-5 ldavg-15 blocked 09:09:05 PM 1 409 0.03 0.05 0.07 0 09:09:06 PM 1 409 0.03 0.05 0.07 0 09:09:07 PM 3 409 0.03 0.05 0.07 0 09:09:08 PM 1 409 0.03 0.05 0.07 0 Average: 2 409 0.03 0.05 0.07 0 # -b 磁盘读写 [[email protected] ~]# sar -b 1 4 Linux 3.10.0-514.26.2.el7.x86_64 (chyuanliuNJ) 11/25/2017 _x86_64_ (1 CPU) 09:09:57 PM tps rtps wtps bread/s bwrtn/s 09:09:58 PM 0.00 0.00 0.00 0.00 0.00 09:09:59 PM 0.00 0.00 0.00 0.00 0.00 09:10:00 PM 0.00 0.00 0.00 0.00 0.00 09:10:01 PM 1.98 0.00 1.98 0.00 47.52 Average: 0.50 0.00 0.50 0.00 12.03
/var/log/sa/目录下会有两种文件记录数据,一种sa25另一种sar25会在26号生成,sa25不能使用cat命令只能sar -f 查看,sar25可以使用cat命令查看
nload命令
网卡名字在左上角。动态显示网卡流量
Device eth0 [172.16.252.69] (1/2): ================================================================================ Incoming: Curr: 856.00 Bit/s Avg: 2.05 kBit/s Min: 0.00 Bit/s Max: 10.12 kBit/s Ttl: 102.76 MByte Outgoing: Curr: 8.08 kBit/s Avg: 13.55 kBit/s Min: 4.34 kBit/s Max: 70.05 kBit/s Ttl: 206.95 MByte
监控IO性能
监控磁盘状态命令
#iostat的数据通过sar -b也能看到 # iostat -x中的 %util很重要 [[email protected] ~]# iostat -x Linux 3.10.0-514.26.2.el7.x86_64 (chyuanliuNJ) 11/25/2017 _x86_64_ (1 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 1.01 0.00 0.57 0.03 0.00 98.39 Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util vda 0.00 1.13 0.06 0.94 2.04 9.97 24.02 0.00 2.02 3.22 1.95 0.43 0.04 %util:一秒中有百分之多少的时间用于I/O操作,或者说一秒中有多少时间I/O队列是非空的。即delta(usr)/s/1000(因为use的单位为毫秒) 如果%util接近100%,说明产生的I/O请求太多,I/O系统已经满负载,该磁盘可能存在瓶颈。 %util:一秒中有百分之多少的时间用于I/O操作,或者说一秒中有多少时间I/O队列是非空的 svctm:平均每次设备I/O操作的服务时间 await:平均每次设备I/O操作的等待时间 avgqu-sz:平均I/O队列长度 如果%util接近100%,表明I/O请求太多,I/O系统已经满负荷,磁盘可能存在瓶颈,一般%util大于70%,I/O压力就比较大,读取速度有较多的wait。 同时可以结合vmstat查看查看b参数(等待资源的进程数)和wa参数(I/O等待所占用的CPU时间的百分比,高过30%时I/O压力高) vmstat -d 5 await的大小一般取决于服务时间(svctm)以及I/O队列的长度和I/O请求的发出模式。如果svctm比较接近await,说明I/O几乎没有等待时间;如果 await远大于svctm,说明I/O队列太长,应用得到的响应时间变慢。
查看哪个进程使用IO比较频繁
#类似top命令 [[email protected] ~]# iotop Total DISK READ : 0.00 B/s | Total DISK WRITE : 0.00 B/s Actual DISK READ: 0.00 B/s | Actual DISK WRITE: 0.00 B/s TID PRIO USER DISK READ DISK WRITE SWAPIN IO> COMMAND 1 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % systemd -~rialize 21 2 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kthreadd] 3 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [ksoftirqd/0] 5 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kworker/0:0H] 7 rt/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [migration/0] 8 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [rcu_bh] 9 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [rcu_sched] 10 rt/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [watchdog/0] 12 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kdevtmpfs] 13 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [netns] 14 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [khungtaskd] 15 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [writeback] ... ...
时间: 2024-10-23 09:37:32