优化Nginx并发量

1)优化前使用ab高并发测试

客户端测试
# yum -y install httpd-tools.x86_64
# ab -c 200 -n 200 http://192.168.4.5/

# 192.168.4.5后面的斜线 / 必须要敲。c代表client。ab是模拟器。n是number。200个人总共点了200次,相当于每个人1次。
-----------------------------------------------------------------------------------------------
优化前,客户端访问次数太多会报错!

# ab -c 2000 -n 2000 http://192.168.4.5/
This is ApacheBench, Version 2.3 <$Revision: 1430300 $>
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/

Benchmarking 192.168.4.5 (be patient)
socket: Too many open files (24) #提示打开文件数量过多
-------------------------------------------------------------------------------------------------
# lscpu
...
CPU(s): 1 #虚拟机默认1核,真机4核

脚本要求有好的cpu
数据库要求有好的内存
-------------------------------------------------------------------------------------------------
2)修改Nginx配置文件,增加并发量

# vim /usr/local/nginx/conf/nginx.conf

#user nobody;
worker_processes 1; #与CPU核心数量一致
... ...
events {
worker_connections 50000; #修改为50000。每个worker最大并发连接数
}

# nginx -s reload
-------------------------------------------------------------------------------------------------
3)优化Linux内核参数(最大文件数量)

# ulimit -a #查看所有属性值
.....
open files (-n) 1024 #能同时打开多少文件:最大数量是1024

# ulimit -Hn 100000 #设置硬限制(临时规则)。应限制只能在这个数内。重启后回到1024。
# ulimit -Sn 100000 #设置软限制(临时规则)。软限制只是给个提醒,超过了也没有关系。重启后回到1024.

4)优化后测试服务器并发量(因为客户端没调内核参数,所以服务器自己proxy测试)
客户端不能测试,因为客户端要访问也要开那么多个进程,他没有改,调不了。如果真改了,对服务器而言就相当于是攻击了。

# ab -c 2000 -n 2000 http://192.168.4.5/
# ab -c 4000 -n 4000 http://192.168.4.5/

原文地址:https://www.cnblogs.com/summer2/p/10787939.html

时间: 2024-10-29 19:30:02

优化Nginx并发量的相关文章

Nginx优化_访问并发量(进程可以打开的最大文件数量)

如果客户端访问服务器提示“Too many open files”如何解决? [[email protected] ~]# ab -n 2000 -c 2000 http://192.168.1.100/    #高并发访问Nginx代理的网站,提示打开文件数量过多 Benchmarking 192.168.1.100 (be patient) socket: Too many open files (24) 优化步骤: 1.  调整Nginx的主配置文件,增加并发量. [[email prot

对于小的并发量,我们能做的一些简单的优化,特别实际

其实很多时候,我们在现实生活中遇到的很多并发量并没有像淘宝双十一一样,可能只有它的1%而已,不要总想着,要么你的项目并发量特别大,要么你的项目并发量基本没有. 其实在实际中,我们应该尽可能的去优化我们的系统. 这里我就只列举那些现实可用的,简单的,我们能力范围之内的.这些优化方案其实对于小的并发来说足够了. 1.CDN,这个可能实现起来需要条件,它能缓存你系统的所有静态的页面数据,注意只有那些静态的页面,CSS,JS等可以缓存,CDN能减少你从主要服务器取数据的操作.而且真的很快,其实很多时候,

Nginx并发访问优化

Nginx反向代理并发能力的强弱,直接影响到系统的稳定性.安装Nginx过程,默认配置并不涉及到过多的并发参数,作为产品运行,不得不考虑这些因素.Nginx作为产品运行,官方建议部署到Linux64位系统,基于该建议,本文中从系统线之上考虑Nginx的并发优化. 1.打开Linux系统epoll支持 epoll支持,能够大大提高系统网络IO的并发数. 2.Linux文件句柄数限制 Nginx代理过程,将业务服务器请求数据缓存到本地文件,再将文件数据转发给请求客户端.高并发的客户端请求,必然要求服

Nginx并发訪问优化

Nginx反向代理并发能力的强弱,直接影响到系统的稳定性.安装Nginx过程,默认配置并不涉及到过多的并发參数,作为产品执行,不得不考虑这些因素.Nginx作为产品执行,官方建议部署到Linux64位系统,基于该建议,本文中从系统线之上考虑Nginx的并发优化. 1.打开Linux系统epoll支持 epoll支持,可以大大提高系统网络IO的并发数. 2.Linux文件句柄数限制 Nginx代理过程,将业务server请求数据缓存到本地文件,再将文件数据转发给请求client.高并发的clien

Nginx优化指南+LINUX内核优化+linux连接数优化+nginx连接数优化

Most setup guides for Nginx tell you the basics - apt-get a package, modify a few lines here and there, and you've got a web server! And, in most cases, a vanilla nginx install will work just fine for serving your website. However, if you're REALLY t

nginx 并发设置

一.一般来说nginx 配置文件中对优化比较有作用的为以下几项: 1.  worker_processes 8; nginx 进程数,建议按照cpu 数目来指定,一般为它的倍数 (如,2个四核的cpu计为8). 2.  worker_cpu_affinity 00000001 0000001000000100 00001000 00010000 00100000 01000000 10000000; 为每个进程分配cpu,上例中将8 个进程分配到8 个cpu,当然可以写多个,或者将一个进程分配到

TCMalloc优化Nginx、MySQL、Redis内存管理

TCMalloc(Thread-Caching Malloc)与标准glibc库的malloc实现一样的功能,但是TCMalloc在效率和速度效率都比标准malloc高很多.TCMalloc是google-perftools工具中的一个(gperftools四个工具分别是:TCMalloc.heap-checker.heap-profiler和cpu-profiler),这个工具是开源的,以源码形式发布.如果觉得自己维护一个内存分配器麻烦的话,可以考虑将TCMalloc静态库连接到你的程序中.使

处理大并发量订单处理的 KafKa部署总结

处理大并发量订单处理的 KafKa部署总结 今天要介绍的是消息中间件KafKa,应该说是一个很牛的中间件吧,背靠Apache 与很多有名的中间件搭配起来用效果更好哦 ,为什么不用RabbitMQ,因为公司需要它. 网上已经有很多怎么用和用到哪的内容,但结果很多人都倒在了入门第一步 环境都搭不起来,可谓是从了解到放弃,所以在此特记录如何在linux环境搭建,windows中配置一样,只是启动运行bat文件. 想要用它就先必须了解它能做什么及能做到什么程度,先看看它是什么吧. 当今社会各种应用系统诸

大流量高并发量网站的之解决方案

一.对于网站访问速度影响的条件如下: 瓶颈主要有: 1.磁盘搜索 优化方法是:将数据分布在多个磁盘上 2.磁盘读/写 优化方法是:从多个磁盘并行读写. 3.CPU周期 优化方法:扩充内存 4.内存带宽 二.大流量高并发量网站的解决方案 1.确认服务器硬件是否足够支持当前的流量. 2.使用memcache缓存技术,将动态数据缓存到内存中,动态网页直接调用这些文件,而不必在访问数据库. 3.禁止外部的盗链. 4.外部网站的图片或者文件盗链往往会带来大量的负载压力,因此应该严格限制外部对自身图片或者文