利用nginx加速web访问

起因
----------

在最近新系统的设计中对于首页打开速度的问题做了一些考虑,由于页面上还是以动态数据为主,所以简单的静态化数据可能并不行,所以需要从业务和技术结合的角度去考虑这个问题。由于有些数据并不敏感,其实可以放入缓存并定时更新。另外就是有些本身是静态,能否加快并发相应速度。

这里对动态数据想到了2种办法:1)把Action设置成单例,请求的结果直接加在缓存里,再用一个定时线程去刷新这个缓存;2)让输出的结果页静态化,定时更新结果页。
    前者控制起来非常灵活,利用双缓冲也能让人感觉不到缓冲时的速度下降,缺点就是要改动比较多的代码。后者正好相反,静态化要依靠外层的框架配置,代码完全不用改动。

选型
-----------

目前比较流行的反向代理服务器有squid和nginx,查了一下资料,发现nginx比较擅长反向代理和负载均衡,而squid强在自身的缓存机制,另外lightd貌似多用来做图片服务器。经过比较感觉nginx的配置文件简单一些,所以决定用这个先尝试一下。

性能测试
----------------

安装完成当然是先做一下性能测试了,这次同样使用ab来进行压力测试。为了做对比,这里也启动了一个tomcat,nginx配置成其的反向代理。我就在本机进行访问,但测试结果令我惊叹。

测试命令:ab -n 10000 -k -c 1000 http://localhost:8080/pscms_hlj_web/images/logo.jpg

tomcat:

  1. Server Software:        Apache-Coyote/1.1
  2. Server Hostname:        localhost
  3. Server Port:            8080
  4. Document Path:          /pscms_hlj_web/images/logo.jpg
  5. Document Length:        17619 bytes
  6. Concurrency Level:      1000
  7. Time taken for tests:   3.671 seconds
  8. Complete requests:      4254
  9. Failed requests:        0
  10. Write errors:           0
  11. Keep-Alive requests:    4254
  12. Total transferred:      76035996 bytes
  13. HTML transferred:       74951226 bytes
  14. Requests per second:    1158.92 [#/sec] (mean)
  15. Time per request:       862.874 [ms] (mean)
  16. Time per request:       0.863 [ms] (mean, across all concurrent requests)
  17. Transfer rate:          20228.99 [Kbytes/sec] received
  18. Connection Times (ms)
  19. min  mean[+/-sd] median   max
  20. Connect:        0   33  67.4      0     261
  21. Processing:    52  255  60.1    272     315
  22. Waiting:       15  129  61.7    127     261
  23. Total:         52  288 108.0    272     559

nginx:

  1. Server Software:        nginx/0.7.67
  2. Server Hostname:        localhost
  3. Server Port:            8000
  4. Document Path:          /pscms_hlj_web/images/logo.jpg
  5. Document Length:        17619 bytes
  6. Concurrency Level:      1000
  7. Time taken for tests:   0.597 seconds
  8. Complete requests:      10000
  9. Failed requests:        0
  10. Write errors:           0
  11. Keep-Alive requests:    10000
  12. Total transferred:      179370000 bytes
  13. HTML transferred:       176190000 bytes
  14. Requests per second:    16744.67 [#/sec] (mean)
  15. Time per request:       59.721 [ms] (mean)
  16. Time per request:       0.060 [ms] (mean, across all concurrent requests)
  17. Transfer rate:          293309.69 [Kbytes/sec] received
  18. Connection Times (ms)
  19. min  mean[+/-sd] median   max
  20. Connect:        0    2   8.1      0      44
  21. Processing:     0   49  19.7     48      97
  22. Waiting:        0   44  19.8     42      93
  23. Total:          0   51  19.4     52      99

nginx的性能远远胜出,这应该是这个页面会被缓存的原因,另外支持epoll肯定也有较高的IO性能提升。但这个测试中也发现tomcat已经很稳的挂掉了,nginx的高并发支持真不是盖的。

结论
----------

真实系统中不可能有那么多静态的内容,因为浏览器本地也会有缓存,但是nginx会在很大程度上提升对并发响应的能力。对于一些不需要频繁更新的动态内容也可以做定时缓存,这样也可以大大加快页面的打开速度并降低后端压力。线上系统可以把图片、js、css、静态html都缓存起来,后端只接受动态内容的请求,从而提速web访问速度。

其他发现
--------------

其实nginx是把缓存的内容经过hash后放到文件中的,虽然测试中来看肯定是在内存中拿的结果,但是肯定还是有一次写入。后来查到linux下面有一个自带的文件系统,在/dev/shm下面,默认是内存大小的一半。这样真的可以把缓存的内容指向这个文件里面就行了。

另外,nginx也可以很方便的实现双机热备和负载均衡。负载均衡可以配置weight来调整访问比例,系统会自动把请求进行转向。双机热备会在所有节点都不可用时自动转向,这在系统升级的时候可以做到不中断服务。这些实现做类似如下配置即可:

    1. upstream  testproxy  {
    2. server   127.0.0.1:8080 weight=10;
    3. server   127.0.0.1:8081 weight=10;
    4. server   192.168.0.11:8080 backup;
    5. }

转自:http://passover.blog.51cto.com/2431658/588602

时间: 2024-11-04 01:38:28

利用nginx加速web访问的相关文章

CentOS7下搭建postfix邮件服务器实现extmail的web访问

CentOS7.1最新1503版本最小化安装,基于lnmp,nginx与mysql为yum安装,当然没有安装php,其他编译所需要的全是官网上下载的最新稳定版,搭建的过程中出了很多错误,经过几天的实验,最后终于搭建成了,这次博客也是重新搭建,边写边搭建,如果再次出现错误的话,会将错误一并写出来. 一.  装备工作 1.防止不必要的麻烦关闭Selinux setenforce 0 关闭防火墙 systemctl stop firewalld 2.清空iptables iptables -P INP

记一次给nginx的web服务器目录加软链接

先期情况和问题 已安装好nginx服务器和相关配置.nginx的web目录是/usr/share/nginx/html. 现在的问题是希望把web目录换成/root/nginx/html/,但是不更改nginx.conf的网站根目录路径配置. 解决方案 采用软链接的方式.(linux中的软链接就相当于windows中的快捷方式) 实施步骤 mv  /root/nginx/html/   /usr/share/nginx/         把文件移到新的路径 ln -s /root/nginx/h

利用nginx反向代理,后端Web如何获取真实客户ip

利用nginx反向代理,后端Web如何获取真实客户端ip 一.nginx反向代理nginx,后端的nginx该如何配置才能获取到客户端的真实IP地址呢. 1.首先需要在nginx代理服务器上的配置文件nginx.conf上的 location 中添加一行参数: proxy_set_header  X-Real-IP  $remote_addr; 重启nginx服务 2.对后面的nginx进行配置 vim /usr/local/nginx/conf/nginx.conf 加入下面参数: set_r

使用Nginx反向代理和proxy_cache缓存搭建CDN服务器加快Web访问速度

碰到问题: 移动用户访问web服务器www.osyunwei.com很慢 解决办法: 1.在移动机房放置一台nginx反向代理服务器 2.通过域名DNS智能解析,所有移动用户访问www.osyunwei.com时解析到nginx反向代理服务器 3.nginx反向代理服务器与web服务器之间采用专线连接 系统运维  www.osyunwei.com  温馨提醒:qihang01原创内容©版权所有,转载请注明出处及原文链接 说明: 1.web服务器 线路:电信 IP:192.168.21.129 域

利用Squid反向代理搭建CDN缓存服务器加快Web访问速度

2011年11月26日 ? Web服务器架构 ? 评论数 2 案例:Web服务器:域名www.abc.com IP:192.168.21.129 电信单线路接入访问用户:电信宽带用户.移动宽带用户出现问题:电信用户打开www.abc.com正常,移动用户打开www.abc.com很慢,甚至打不开解决方案:在移动机房放置一台CDN代理服务器,通过智能DNS解析,让电信用户直接访问Web服务器.让移动用户访问CDN代理服务器,解决移动用户访问Web服务器慢的问题具体操作:CDN代理服务器:系统:Ce

keepalived+nginx反向代理访问后端web服务器

 架设web服务器通过nginx反向代理访问,并通过keepalived配置nginx反向代理服务器和nginxweb 服务器的故障转移 1.系统:Centos6.6 2.反向代理:Keepalived+nginxproxy:  主机:PHP-API-P1       IP地址:192.168.0.111 主机:PHP-API-P2 IP地址:192.168.0.112 VIP :192.168.0.8 3.后端服务:Keepalived+nginx: 主机:PHP-API-S1 IP地址:19

Nginx的web应用

1.本章内容I/O模型 Nginx介绍 Nginx安装 Nginx各种模块 2.用户速度体验的1-3-10原则 3.性能影响有很多研究都表明,性能对用户的行为有很大的影响: 79%的用户表示不太可能再次打开一个缓慢的网站 47%的用户期望网页能在2秒钟以内加载 40%的用户表示如果加载时间超过三秒钟,就会放弃这个网站 页面加载时间延迟一秒可能导致转换损失7%,页面浏览量减少 11% 8秒定律:用户访问一个网站时,如果等待网页打开的时间超过8秒,会有超过30%的用户放弃等待: 4.Httpd MP

nginx的web缓存服务环境部署记录

web缓存位于内容源Web服务器和客户端之间,当用户访问一个URL时,Web缓存服务器会去后端Web源服务器取回要输出的内容,然后,当下一个请求到来时,如果访问的是相同的URL,Web缓存服务器直接输出内容给客户端,而不是向源服务器再次发送请求.Web缓存降低了内容源Web服务器,数据库的负载,减少了网络延迟,提高了用户访问的响应速度,增强了用户体验. web缓存服务器中,最著名的要数Squid Cache(简称为Squid),Squid是一个流浪的自由软件的代理服务器和Web缓存服务器.---

linux学习笔记——搭建基于nginx的web服务器、多核配置、nginx配置参数

############ 认识nginx #############Nginx:(发音同 engine x)是一款轻量级的Web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行.由俄罗斯的程序设计师Igor Sysoev所开发,最初供俄国大型的入口网站及搜寻引擎Rambler(俄文:Рамблер)使用.  其优点是轻量级(占有内存少),高并发(并发能力强),事实上nginx的并发能力确实在同类型的网页伺服器中表现较好.目前中国大陆使用ngi