nginx配置优化+负载均衡+动静分离详解

nginx配置如下:

#指定nginx进程运行用户以及用户组
user www www;
#nginx要开启的进程数为8
worker_processes 8;
#全局错误日志文件
#debug输出日志最为详细,而crit输出日志最少/var/log目录是linux下的日志存放目录
error_log /var/log/nginx/nginx_error.log crit;
#指定进程id的存储位置
pid /var/run/nginx.pid;
#绑定worker进程和CPU,linux内核2.4以上可用
worker_rlimit_nofile 51200;
#nginx的工作模式及连接输上线
events {
#nginx工作模式,epoll是linux平台下的高效模式
use epoll;
#定义nginx每个进程的最大连接数为51200,一般网上都配置65535,根据张宴大神的建议51200即可
worker_connections 51200;
}

http {
#实现对配置文件所包含的文件的设定
include mime.types;
#设置默认类型为二进制流
default_type application/octet-stream;

server_names_hash_bucket_size 128;
#指定来自客户端请求头的headerbuffer大小,设置为32KB
client_header_buffer_size 32k;
#指定客户端请求中较大的消息头的缓存最大数量和大小,这里是4个32KB
large_client_header_buffers 4 32k;
#上传文件大小
client_max_body_size 356m;
#nginx的HttpLog模块指定,指定nginx日志的输出格式,输出格式为access
log_format access ‘$remote_addr - $remote_user [$time_local] "$request" ‘
‘$status $body_bytes_sent "$http_referer" ‘
‘"$http_user_agent" "$http_x_forwarded_for"‘;
#access日志存在未知
access_log /var/log/nginx/access.log access;
#开启高效模式文件传输模式,将tcp_nopush和tcp_nodely两个指另设置为on,用于防止网络阻塞。
sendfile on;
tcp_nopush on;
tcp_nodely on;
#设置客户端连接保持活动的超时时间
keepalive_timeout 65;
server_tokens off;
#客户端请求主体读取缓存
client_body_buffer_size 512k;
proxy_connect_timeout 5;
proxy_send_timeout 60;
proxy_read_timeout 5;
proxy_buffer_size 16k;
proxy_buffers 4 64k;
proxy_busy_buffers_size 128k;
proxy_temp_file_write_size 128k;

#fastcgi_connect_timeout 300;
#fastcgi_send_timeout 300;
#fastcgi_read_timeout 300;
#fastcgi_buffer_timeout 300;
#fastcgi_buffers 4 64k;
#fastcgi_busy_buffers_size 128k;
#fastcgi_temp_file_write_size 128k;

#开启gzip
gzip on;
#允许压缩的最小字节数
gzip_min_length 1k;
#4个单位为16k的内存作为压缩结果流缓存
gzip_buffers 4 16k;
#设置识别HTTP协议版本,默认是1.1
gzip_http_version 1.1;
#gzip压缩比,可在1~9中设置,1压缩比最小,速度最快,9压缩比最大,速度最慢,消耗CPU
gzip_comp_level 2;
#压缩的类型
gzip_types text/plain application/x-javascript text/css application/xml;
#让前端的缓存服务器混村经过的gzip压缩的页面
gzip_vary on;

#负载均衡
upstream localhost.com {
#每个请求按照ip的hash结果分配,同一个ip的访客固定访问一个后端服务器,可解决动态网页session共享问题。
ip_hash;
server 127.0.0.1:8080;
server 127.0.0.1:8082;
}
禁止通过ip访问
server {
server_name _;
return 404;
}
server {
listen 88;
server_name www.test.com;# 对应你的域名
charset utf-8; #设置编码为utf-8
index index.html index.htm index.jsp index.do index.action;
#指定虚拟主机根目录为/var/www/
root /var/www/;
if ( -d $request_filename)
{
rewrite ^/(.*)([^/])$ http://$host/$1$2/permanent;
}
#方法1:将jsp等动态文件交给的localhost.com处理,此方法用的不多
location ~ \.(jsp|jspx|do|action)(\/.*)?$ {
index index.jsp;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_pass http://localhost.com;
}
#方法2:将所有请求交给localhost.com处理,静态文件通过额外定义location交给nginx处理。
location / {
#当502或504时,将请求转发到负载均衡中正常server中
proxy_next_upstream http_502 http_504 error timeout invalid_header;
proxy_pass http://localhost.com;
proxy_redirect off;
proxy_set_header Host $host;
#若nginx为最前端时,后端获得X-Real-IP传递的ip即为实际ip,若nginx不是最前端时,实际ip为X-Forwarded-For值。
proxy_set_header X-Forwarded-For $remote_addr;
}
#静态文件交给nginx处理
location ~ .*\.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|pdf|xls|mp3|wma)$
{
root /var/www;
expires 30d;
}
#静态文件交给nginx处理
location ~ .*\.(js|css)?$
{
root /var/www;
expires 1h;
}
location /media {
#指定后端服务器地址和端口
proxy_pass http://localhost.com;
#proxy_next_upstream 故障转移待空
proxy_redirect off;
#后端服务器获取用户的主机名或真实IP地址
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

#客户端请求主体缓冲区最大值
client_max_body_size 10m;
#客户端请求主体缓存区大小
client_body_buffer_size 128k;
#与后端服务器连接的超时时间
proxy_connect_timeout 90;
#后端服务器的数据回传时间90s,90s内未传回,nginx将断开连接
proxy_send_timeout 90;
#nginx从代理的后端服务器获取信息的时间90s
proxy_read_timeout 90;

#缓冲区大小默认等于proxy_buffers设置的大小
proxy_buffer_size 4k;
#设置缓冲区的数量和大小
proxy_buffers 4 32k;
#设置系统很忙时可以使用的proxy_buffers的大小,官方推荐位proxy_buffersX2
proxy_busy_buffers_size 64k;
#指定proxy缓存临时文件的大小
proxy_temp_file_write_size 64k;
}
location /files/ {
#静止外部访问
internal;
#
alias /home/nfs/media/;
}
}
# HTTPS server配置
server {
listen 443;
server_name www.test.com; # 对应你的域名
root /var/www/webapps;

ssl on;
ssl_certificate /usr/local/nginx/conf/test.crt;
ssl_certificate_key /usr/local/nginx/conf/test_nopass.key;

ssl_session_timeout 5m;

ssl_protocols SSLv2 SSLv3 TLSv1;
ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;

location / {
root html;
index index.html index.htm;
}
}
}

时间: 2024-10-13 05:50:04

nginx配置优化+负载均衡+动静分离详解的相关文章

[转] nginx配置优化+负载均衡+动静分离(附带参数解析)

#指定nginx进程运行用户以及用户组user www www;#nginx要开启的进程数为8worker_processes  8;#全局错误日志文件#debug输出日志最为详细,而crit输出日志最少/var/log目录是linux下的日志存放目录error_log /var/log/nginx/nginx_error.log crit;#指定进程id的存储位置pid   /var/run/nginx.pid;#绑定worker进程和CPU,linux内核2.4以上可用worker_rlim

nginx+apache实现负载均衡+动静分离配置(编译安装)

一.编译安装nginx cd /usr/local/src wget http://nginx.org/download/nginx-1.6.3.tar.gz tar -zxvf nginx-1.6.3.tar.gz cd nginx-1.6.3 ./configure --prefix=/usr/local/nginx --with-file-aio --with-http_ssl_module --with-http_image_filter_module --with-http_sub_m

HAproxy负载均衡动静分离实现及配置详解

 HAproxy负载均衡动静分离实现及配置详解 HAproxy的介绍 HAProxy提供高可用性.负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费.快速并且可靠的一种解决方案.HAProxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理.HAProxy运行在时下的硬件上,完全可以支持数以万计的并发连接.并且它的运行模式使得它可以很简单安全的整合进您当前的架构中, 同时可以保护你的web服务器不被暴露到网络上. HAProxy实现了一种事件驱动.单一进程

Nginx+Tomcat+Keepalived+Memcache 负载均衡动静分离技术

一.概述 Nginx 作负载均衡器的优点许多,简单概括为: ①实现了可弹性化的架构,在压力增大的时候可以临时添加Tomcat服务器添加到这个架构里面去; ②upstream具有负载均衡能力,可以自动判断下面的机器,并且自动踢出不能正常提供服务的机器: Keepalived 可实现 Nginx负载均衡器双机互备,任意一台机器发生故障,对方都能够将虚拟IP接管过去. Memcache可以实现Tomcat服务器的Sission共享整个拓补如下: 注意: 1.由于服务器有限,IP相同的为同一台机.只是端

Nginx安装-反向代理-负载均衡-动静分离

安装 1.需要素材 后两个用命令下载安装 openssl-1.0.1t.tar.gzzlib -1.2.8.tar.gz 2:在/usr/src/ 下吧 " nginx-1.16.1.tar.gz " "pcre-8.37.tar.gz" 这两个文件放进去并且解压然后在pcre-8.37这个文件下先 : ./configure 在敲 make && make install pcre-conffig --verison 查看版本 下面安装nginx

Nginx配置之负载均衡、限流、缓存、黑名单和灰度发布

一.Nginx安装(基于CentOS 6.5) 1.yum命令安装 yum install nginx –y(若不能安装,执行命令yum install epel-release) 2. 启动.停止和重启 service nginx startservice nginx stopservice nginx restart浏览器中 输入服务器的 ip 地址,即可看到相应信息 3. 其他信息 rpm -ql nginx 来查看安装路径yum remove nginx 来卸载 nginx -s rel

NLB网路负载均衡管理器详解

序言 在上一篇配置iis负载均衡中我们使用啦微软的ARR,我在那篇文章也中提到了网站的高可用性,但是ARR只能做请求入口的消息分发服务,这样如果我们的消息分发服务器给down掉啦,那么做再多的应用服务集群也都枉然. 这篇文章我主要针对解决这一问题来做分析,引入NLB,相对于ARR来说,ARR算是应用级别的负载均衡方案,而NLB则是服务器级别的负载均衡方案. 如果微软的这两款方案我们结合起来使用,那便是微软高可用网站方案的天作之合啦. Application Request Route与NLB高可

Nginx+Tomcat配置负载均衡-动静分离(二)

配置动静分离的时候遇到了一些问题,一个是配置nginx配置文件有问题导致访问不到服务器,另一个问题是配置静态资源的路径和实际的资源目录不匹配导致404,502等错误 结合上一篇的基础,在此将动静分离的配置文件主要部分做一说明,为日后参考. 1 #user nobody; 2 worker_processes 1; 3 4 #error_log logs/error.log; 5 #error_log logs/error.log notice; 6 #error_log logs/error.l

【Linux运维-集群技术进阶】Nginx+Keepalived+Tomcat搭建高可用/负载均衡/动静分离的Webserver集群

额.博客名字有点长.. . 前言 最终到这篇文章了,心情是有点激动的. 由于这篇文章会集中曾经博客讲到的全部Nginx功能点.包含主要的负载均衡,还有动静分离技术再加上这篇文章的重点.通过Keepalived实现的HA(High Available).为什么要实现高可用呢?曾经在搭建的时候仅仅用了一台Nginxserver,这种话假设Nginxserver宕机了,那么整个站点就会挂掉.所以要实现Nginx的高可用,一台挂掉还会有还有一台顶上去.从而保证站点能够持续的提供服务. 关于负载均衡和动静