题外话
第一份工作中项目中有DBA和运维,所以平时也只关注开发部分,对数据库和服务器关注比较少,记得那时有用户反馈网站很慢,老大让我联系运维看看是不是服务器的问题,那时也不知道Nginx是个什么东西。这次项目中,开发完之后刚好要做两个服务器的集群,要用Nginx转发,蹭这个机会,赶紧学习学习新技能。
本地安装Nginx
1、下载Nginx,当前最新版本nginx-1.9.6.zip,由于只是本地测试,所以下载的是windows版本。
2、解压,放到指定目录。
3、配置环境变量,NGINX_PATH并加入到PATH,步奏和配置JDK一样。好处是执行命令时不用再转到Nginx的目录下。
检查是否安装成功:
C:\Users\Nginxtest>nginx -v nginx version: nginx/1.9.6
貌似还是要进入nginx的安装目录执行下面的命令。。。。why。。。
几个常用命令
#启动Nginx start nginx #重启Nginx nginx -s reload #停止Nginx nginx -s stop #检查配置是否正确 nginx -t #查看Nginx进程 tasklist /fi "imagename eq nginx.exe"
启动Nginx
用start nginx命令启动
然后在浏览器输入localhost就能访问了。
修改配置,负载均衡的功能
准备工作:准备了两个Tomcat,不同的端口号
localhost:7080
localhost:9080
实践一:访问localhost:80时转发到localhost:9080的tomcat首页
server { #监听80端口 localhost:80 listen 80; server_name localhost; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http://localhost:9080; }
实践二、访问localhost:80时转发到localhost:9080/springweb/,一定要springweb/
server { #监听80端口 localhost:80 listen 80; server_name localhost; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http://localhost:9080/springweb/; }
实践三、反向代理,请求转发
#真实转发的地址 upstream real_path{ server localhost:9080 weight=1 max_fails=2 fail_timeout=30s; server localhost:7080 weight=1 max_fails=2 fail_timeout=30s; } server { #监听80端口 localhost:80 listen 80; server_name localhost; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http://real_path; }
附录一、完整的配置文件说明
参考:https://www.nginx.com/resources/wiki/start/topics/examples/full/
#user nobody; #nginx进程数,建议设置为等于CPU总核心数 #设置为n后,tasklist /fi "imagename eq nginx.exe"后n+1个进程 worker_processes 3; #错误日志文件 error_log logs/error.log; #error_log logs/error.log notice; #error_log logs/error.log info; #pid logs/nginx.pid; #默认最大的并发连接数1024 events { worker_connections 1024; } #设定Http服务器 http { #文件扩展名与文件类型映射表 include mime.types; #默认文件类型 default_type application/octet-stream; #log_format main ‘$remote_addr - $remote_user [$time_local] "$request" ‘ # ‘$status $body_bytes_sent "$http_referer" ‘ # ‘"$http_user_agent" "$http_x_forwarded_for"‘; #access_log logs/access.log main; #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为on sendfile on; #防止网络阻塞 #tcp_nopush on; #长连接超时时间,单位是秒 #keepalive_timeout 0; keepalive_timeout 65; fastcgi_intercept_errors on; #开启gzip压缩输出 #gzip on; #负载均衡 upstream real_path{ #负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。 server localhost:9080 weight=1 max_fails=2 fail_timeout=30s; server localhost:7080 weight=4 max_fails=2 fail_timeout=30s; } #虚拟主机的配置 server { #监听端口 listen 80; #域名可以有多个,用空格隔开 server_name localhost; #charset koi8-r; #access_log logs/host.access.log main; #对 "/" 启用反向代理 #如果改成location /tomcat/,则访问http://localhost/tomcat/ location / { proxy_pass http://real_path/; } error_page 404 /404.html; # redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } }
附录二、nginx的upstream目前支持5种方式的分配
参考:http://blog.chinaunix.net/uid-20662363-id-3049712.html
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
upstream bakend { server 192.168.0.14 weight=10; server 192.168.0.15 weight=10; }
3、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
upstream bakend { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; }
4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream backend { server server1; server server2; fair; }
5、url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }