为什么nginx性能如此出色?

声明:本文的内容源于http://tengine.taobao.org/相关资料,如果想深入了解,可以到该网站查看。

nginx的高性能在业界已经是众人皆知了,性能究竟有多高?官方测试Nginx能够支撑5万并发连接,在实际生产环境中可支撑2~4万并发的连接数是没有啥问题的。根据实战Nginx书中描述,同等硬件环境下,Nginx的处理能力相当于Apache的5~10倍。而这么高的性能,与其架构是分不开的。

nginx在启动后,在unix系统中会以daemon的方式在后台运行,后台进程包含一个master进程和多个worker进程。master进程主要用来管理worker进程,包含:接收来自外界的信号、向各worker进程发送信号和监控worker进程的运行状态等。当worker进程退出后(异常情况下),会自动重新启动新的worker进程。而基本的网络事件,则是放在worker进程中来处理了。多个worker进程之间是对等的,他们同等竞争来自客户端的请求,各进程互相之间是独立的。一个请求,只可能在一个worker进程中处理,一个worker进程,不可能处理其它进程的请求。worker进程的个数是可以设置的,一般我们会设置与机器cpu核数一致,这里面的原因与nginx的进程模型以及事件处理模型是分不开的。

nginx的进程模型,可以由下图来表示:

从上图中我们可以看到,master来管理worker进程,所以我们只需要与master进程通信就行了。master进程会接收来自外界发来的信号,再根据信号做不同的事情。所以我们要控制nginx,只需要通过kill向master进程发送信号就行了。

那么,worker进行又是如何处理请求的呢?前面有提到,worker进程之间是平等的,每个进程,处理请求的机会也是一样的。首先,每个worker进程都是从master进程fork过来,在master进程里面,先建立好需要listen的socket(listenfd)之后,然后再fork出多个worker进程。所有worker进程的listenfd会在新连接到来时变得可读,为保证只有一个进程处理该连接,所有worker进程在注册listenfd读事件前抢accept_mutex,抢到互斥锁的那个进程注册listenfd读事件,在读事件里调用accept接受该连接。当一个worker进程在accept这个连接之后,就开始读取请求,解析请求,处理请求,产生数据后,再返回给客户端,最后才断开连接,这样一个完整的请求就是这样的了。我们可以看到,一个请求,完全由worker进程来处理,而且只在一个worker进程中处理。

nginx采用这种进程模型有什么好处呢?当然,好处肯定会很多了。首先,对于每个worker进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及问题查找时,也会方便很多。其次,采用独立的进程,可以让互相之间不会影响,一个进程退出后,其它进程还在工作,服务不会中断,master进程则很快启动新的worker进程。当然,worker进程的异常退出,肯定是程序有bug了,异常退出,会导致当前worker上的所有请求失败,不过不会影响到所有请求,所以降低了风险。当然,好处还有很多,大家可以慢慢体会。

到这里,有人可能要问了,nginx采用多worker的方式来处理请求,每个worker里面只有一个主线程,那能够处理的并发数很有限啊,多少个worker就能处理多少个并发,何来高并发呢?非也,这就是nginx的高明之处,nginx采用了异步非阻塞的方式来处理请求,也就是说,nginx是可以同时处理成千上万个请求的。想想apache的常用工作方式(apache也有异步非阻塞版本,但因其与自带某些模块冲突,所以不常用),每个请求会独占一个工作线程,当并发数上到几千时,就同时有几千的线程在处理请求了。这对操作系统来说,是个不小的挑战,线程带来的内存占用非常大,线程的上下文切换带来的cpu开销很大,自然性能就上不去了,而这些开销完全是没有意义的。

何为异步非阻塞?我们先回到原点,看看一个请求的完整过程。首先,请求过来,要建立连接,然后再接收数据,接收数据后,再发送数据。具体到系统底层,就是读写事件,而当读写事件没有准备好时,必然不可操作,如果不用非阻塞的方式来调用,那就得阻塞调用了,事件没有准备好,那就只能等了,等事件准备好了,你再继续吧。阻塞调用会进入内核等待,cpu就会让出去给别人用了,对单线程的worker来说,显然不合适,当网络事件越多时,大家都在等待呢,cpu空闲下来没人用,cpu利用率自然上不去了,更别谈高并发了。好吧,你说加进程数,这跟apache的线程模型有什么区别?注意,别增加无谓的上下文切换。所以,在nginx里面,最忌讳阻塞的系统调用了。不要阻塞,那就非阻塞喽。非阻塞就是,事件没有准备好,马上返回EAGAIN,告诉你,事件还没准备好呢,你慌什么,过会再来吧。好吧,你过一会,再来检查一下事件,直到事件准备好了为止,在这期间,你就可以先去做其它事情,然后再来看看事件好了没。虽然不阻塞了,但你得不时地过来检查一下事件的状态,你可以做更多的事情了,但带来的开销也是不小的。所以,才会有了异步非阻塞的事件处理机制,具体到系统调用就是像select/poll/epoll/kqueue这样的系统调用。它们提供了一种机制,让你可以同时监控多个事件,调用他们是阻塞的,但可以设置超时时间,在超时时间之内,如果有事件准备好了,就返回。这种机制正好解决了我们上面的两个问题,拿epoll为例(在后面的例子中,我们多以epoll为例子,以代表这一类函数),当事件没准备好时,放到epoll里面,事件准备好了,我们就去读写,当读写返回EAGAIN时,我们将它再次加入到epoll里面。这样,只要有事件准备好了,我们就去处理它,只有当所有事件都没准备好时,才在epoll里面等着。这样,我们就可以并发处理大量的并发了,当然,这里的并发请求,是指未处理完的请求,线程只有一个,所以同时能处理的请求当然只有一个了,只是在请求间进行不断地切换而已,切换也是因为异步事件未准备好,而主动让出的。这里的切换是没有任何代价,你可以理解为循环处理多个准备好的事件,事实上就是这样的。与多线程相比,这种事件处理方式是有很大的优势的,不需要创建线程,每个请求占用的内存也很少,没有上下文切换,事件处理非常的轻量级。并发数再多也不会导致无谓的资源浪费(上下文切换)。更多的并发数,只是会占用更多的内存而已。

现在的网络服务器基本都采用这种方式,这也是nginx性能高效的主要原因。

时间: 2024-10-09 17:39:07

为什么nginx性能如此出色?的相关文章

zabbix监控nginx性能状态

nginx在生产环境中的应用越来越广泛,所以需要对nginx的性能状态做一些监控,来发现出来出现的问题.nginx处理流程图具体如下: 注释:Accepts(接受).Handled(已处理).Requests(请求数)是一直在增加的计数器.Active(活跃).Waiting(等待).Reading(读).Writing(写)随着请求量而增减 名称 描述 指标类型 Accepts(接受) NGINX 所接受的客户端连接数 资源: 功能 Handled(已处理) 成功的客户端连接数 资源: 功能

nginx性能优化技巧

前几天买了本高俊峰的<高性能Linux服务器构建实战I>,网上都说运维必备手册,昨天看了目录加小50页感觉还是比较扩充视野的,很多东西在学校是不可能学到的,就是感觉有的地方讲的仍然不是很清楚,毕竟79块的书其实可以写到800页的.... 个人对于nginx比较感兴趣,源码的编译安装是比较熟的了,配置文件本来以为挺熟的,但是看了书上配置文件的N多命令我感觉根本玩不起来.因为实在是太多了,要背根本不现实,就算背下来不去用也会很快就忘掉.十分蛋疼~~ 书上对于Nginx的性能优化写了4种方法,下面分

zabbix管理七之监控nginx性能

说明: 使用zabbix监控nginx,首先nginx需要配置ngx_status 在编译安装nginx时需要使用--with-http_stub_status_module参数 在nginx的配置文件nginx.conf里添加如下:         location /nginx_status {              stub_status on;              access_log off;              allow 127.0.0.1;            

Nginx性能优化配置(三)

Nginx性能优化配置(三)  本文主要介绍Nginx的性能优化配置,文章的层次架构如图所示. 1.Nginx的工作进程优化 1.worker_processes 作用:worker进程的数量:通常应该等于小于当前主机的cpu的物理核心数:auto表示根据CPU的物理核心数自动调整工作进程数.使用lscpu或或者cat /proc/cpuinfo | grep 'processor' | wc -l 可以查看CPU的物理核心数. 配置:worker_processes auto: 配置段:mai

Zabbix监控nginx性能的另外一种方式

nginx和php-fpm一样内建了一个状态页,对于想了解nginx的状态以及监控nginx非常有用,为了后续的zabbix监控,我们需要先启用nginx状态页 1. 启用nginx status配置在默认主机里面加上location或者你希望能访问到的主机里面. server { location /ngx_status { stub_status on; access_log off; allow 127.0.0.1; deny all; } } 2. 重载nginx # nginx -t

Nginx性能调优教程

性能测试之Nginx性能调优 课程观看地址:http://www.xuetuwuyou.com/course/38 课程出自学途无忧网:http://www.xuetuwuyou.com/ 课程从介绍Nginx开始,包括Nginx的安装.配置.监控.调优等方方面面,可以全面深入浅出的学习Nginx. 课时1:nginx为什么这么牛B 课时2:Linux下快速安装nginx 课时3:nginx监控分析神器 课时4:nginx关键参数分析 课时5:通过status监控nginx 课时6:静态资源优化

zabbix 监控 nginx性能

http://www.ttlsa.com/nginx/nginx-status-detail/ http://www.ttlsa.com/zabbix/zabbix-monitor-nginx-performance/ 首先需要配置ngx_status vim /etc/nginx/vhost/web.conf server { listen       80; server_name 192.168.80.62; index index.php index.html index.htm def

zabbix如何监控nginx性能

环境:zabbix server :centos 6  ip 192.168.234.134 zabbix client (nginx) :centos 7  ip:192.168.234.133 前提: 在zabbix agentd客户端上,查看nginx是否加载了--with-http_stub_status_module.因为zabbix监控nginx是根据nginx的Stub Status模块,抓取Status模块所提供的数据.假如以前没开启,现在想启用StubStatus 模块,在编译

第二篇:nginx性能分析

目前越来越多的互联网服务器市场被nginx服务器所占领,nginx也变得越来越流行了,那么为何流行,为何成为了主流,在下文结合其他web服务器进行简单的说明. 主流的web服务器有web IIS,apache,lighttpd,nginx,Tomcat和Jetty,当然肯定还有一些其他的我知识面比较窄,没有涉及过. 为什么使用nginx: WEB IIS是一款运行在windows下面的服务器,而windows作为服务器无论是在性能上面,还是在稳定性上面相比于运行在linux上面的服务器都有先天性