inux 下查看服务器负载均衡

linux 下查看服务器负载均衡

uptime

20:57:21 up  9:18,  1 user,  load average: 0.73, 0.66, 0.50

#显示当前用户数,以及最近1 分钟内、5分钟内、15 分钟内系统的平均负载

more /proc/loadavg

0.64 0.64 0.50 2/251 4705

#用于显示系统1秒钟平均负载、5秒钟平均负载、15秒钟平均负载、总作业数、正在运行的作业总数

shell> more /proc/stat

cpu  69415 0 57328 13511868 15737 3357 5352 0 0

cpu0 12721 0 11176 3343468 677 0 16 0 0

cpu1 10796 0 9106 3374573 418 0 10 0 0

cpu2 9856 0 9036 3393370 421 37 89 0 0

cpu3 36040 0 28009 3400456 14219 3320 5236 0 0

intr 11347880 67 158 0 0 2 0 2 0 86 0 0 0 4 0 0 0 11046 0 3 17 2586283 0 341240 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8408972 0 0

ctxt 58874141

btime 1316489929

processes 4625

procs_running 1

procs_blocked 0

vmstat

procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------

r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st

1  4 329796  26040   4528 3379824    1    1    50   160   36   17  2 10 85  3  0

procs

r 列表示运行和等待cpu时间片的进程数,如果长期大于1,说明cpu不足,需要增加cpu。

b 列表示在等待资源的进程数,比如正在等待I/O、或者内存交换等。

cpu 表示cpu的使用状态

us 列显示了用户方式下所花费 CPU 时间的百分比。us的值比较高时,说明用户进程消耗的cpu时间多,但是如果长期大于50%,需要考虑优化用户的程序。

sy 列显示了内核进程所花费的cpu时间的百分比。这里us + sy的参考值为80%,如果us+sy 大于 80%说明可能存在CPU不足。

wa 列显示了IO等待所占用的CPU时间的百分比。这里wa的参考值为30%,如果wa超过30%,说明IO等待严重,这可能是磁盘大量随机访问造成的,也可能磁盘或者磁盘访问控制器的带宽瓶颈造成的(主要是块操作)。

id 列显示了cpu处在空闲状态的时间百分比

system 显示采集间隔内发生的中断数

in 列表示在某一时间间隔中观测到的每秒设备中断数。

cs列表示每秒产生的上下文切换次数,如当 cs 比磁盘 I/O 和网络信息包速率高得多,都应进行进一步调查。

memory

swpd 切换到内存交换区的内存数量(k表示)。如果swpd的值不为0,或者比较大,比如超过了100m,只要si、so的值长期为0,系统性能还是正常

free 当前的空闲页面列表中内存数量(k表示)

buff 作为buffer cache的内存数量,一般对块设备的读写才需要缓冲。

cache: 作为page cache的内存数量,一般作为文件系统的cache,如果cache较大,说明用到cache的文件较多,如果此时IO中bi比较小,说明文件系统效率比较好。

swap

si 由内存进入内存交换区数量。

so由内存交换区进入内存数量。

IO

bi 从块设备读入数据的总量(读磁盘)(每秒kb)。

bo 块设备写入数据的总量(写磁盘)(每秒kb)

这里我们设置的bi+bo参考值为1000,如果超过1000,而且wa值较大应该考虑均衡磁盘负载,可以结合iostat输出来分析。

free -m

total       used       free     shared    buffers     cached

Mem:          3291       3167        123          0         19       2338

-/+ buffers/cache:        809       2481

Swap:         1906          0       1906

# 显示 内存情况

# sar -u 1 3每一秒更新三次

-b I/0和传递速率

-B 输出内存页面统计信息

-n DEV | grep eth0 网卡状态

-q  平均负载

时间: 2024-11-05 22:57:13

inux 下查看服务器负载均衡的相关文章

Nginx+Tomcat服务器负载均衡实践方案

1.    为何选择Nginx+Tomcat做负载均衡? 1.1. Nginx是什么? Nginx(发音同 engine x)是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行.由俄罗斯的程序设计师Igor Sysoev所开发,供俄国大型的入口网站及搜索引擎Rambler(俄文:Рамблер)使用.其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户

公司网络web服务器负载均衡解决方案

公司网络web服务器负载均衡解决方案 随着公司产品业务的推广发展壮大,对服务器的硬件性能.相应速度.服务稳定性.数据可靠性的要求越来越高.今后服务器的负载将难以承受所有的访问.从公司的实际情况,运营成本网络安全性考虑,排除使用价格昂贵的大型服务器.以及部署价格高昂的专用负载均衡设备. DNS轮询负载均衡解决方案虽然成本低廉但是安全性能不是很好,加上公司产品的特殊性需要用户验证的体系,在会话保持方面是一大缺陷,会话保持,如果是需要身份验证的网站,在不修改软件构架的情况下,这点是比较致命的,因为DN

PIOLINK服务器负载均衡解决方案设计

PIOLINK服务器负载均衡解决方案设计 系统设计的基本原则 l 实用.先进.安全.可扩展是本系统设计的基本原则 本建议书首先是满足现有和可预见未来几年内的应用要求:其次是考虑在投资增加很少的前提下,选择目前可以提供最先进技术手段的设备和系统方案:最后要考虑实现的安全系统面对应用要有长远发展的能力. l 稳定性和可靠性 对于业务系统的底层传输平台的网络系统必须要保证其工作的可靠性和稳定性,保证常年的不间断运行,这样才能提供及时.准确.可靠的信息支持. l 安全性 安全性是信息系统建设所必须优先解

LVS详解及基于LVS实现web服务器负载均衡

前言 LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能.高可用的服务器群集,从而以低成本实现最优的服务性能. 集群基础 集群简介 集群(Cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用

LAMP平台基于NFS实现web服务器负载均衡

前言 随着访问量的逐渐增大,一台web服务器可能已经无法满足需求,这就需要增加web服务器的数量了,于是问题就来了:如何保证两台服务器数据同步呢?本文将讲解如何基于NFS实现web服务器的负载均衡及数据同步. NFS服务介绍 NFS(Network File System)网络文件系统,允许一个系统通过网络共享目录和文件,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件.NFS本身没有提供数据传输的功能,必须借助于远程过程调用(RPC)协议来实现数据的传输. 配置文件 NFS

查看服务器负载--top

通过什么方法来排查是否linux服务器的负载过大? 通过top命令来查看服务器负载 再对此Linux服务器性能分析之前,先了解下Linux系统Load average负载的知识,    三个数分别代表不同时间段的系统平均负载(一分钟.五分钟.以及十五分钟),它们的数字当然是越小越好.数字越高,说明服务器的负载越大. 一个单核的处理器可以形象得比喻成一条单车道.如果前面没有车辆在等待,那么你可以告诉后面的司机通过.如果车辆众多,那么需要告知他们可能需要稍等一会. 因此,需要些特定的代号表示目前的车

HAProxy+Keepalived实现Web服务器负载均衡

2014年03月31日  HAProxy  暂无评论  被围观 12,941次+ 说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.osyunwei.com和sns.osyunwei.com部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过HAProxy+Keepalived实现Web服务器负载均衡 架构规划: HAProxy服务器:192.168.21.129.192.168.21.130

服务器负载均衡数据同步的实现

今天老师讲了服务器的架构,虽然简单,但还是有难点的,还要在此基础上进行扩展. 其中有关于服务器负载均衡时的数据同步,百度过后,看到了前辈们的分享: 利用inotify+rsync实现linux文件批量更新 批量同步.批量更新,这应该是做运维的朋友们经常做的工作,rsync是linux下一款非常强大的同步工具,采用差异同步的方法,只上传文件/文件夹的不同部分,同时可以对上传部分先进行压缩,所以rsync的传输效率是很高的但rsync也有缺点,最大的问题就是每次执行rsync命令都会遍历目标目录,当

多链路及服务器负载均衡原理与设备构建方案

随着互联网的飞速发展,越来越多的商务活动通过互联网完成,网络性能却越来越不能满足日益增多互联网需求.随着因特网用户的急剧增多,用户越来越感受到应答时间延迟和带宽的不足.为了解决这些问题,用户为优化网络环境投入了大量的资金,但结果并未达到预期的效果.用户迫切需一套改善网络系统4S-Stability(安定性).Scalability(扩展性).Speed(高速性).Security(安全性)的最佳解决方案. PIOLINK负载均衡解决方案有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点