nginx负载均衡二:配置

配置方法一(可用):

upstream  tomcatserver1  {
    server 192.168.70.170 weight=3;
    server 192.168.70.172;    server 192.168.70.173 down;    server 192.168.70.174;    server 192.168.70.175 backup;
}   

 server {
        listen       80;
        server_name  localhost;
        #charset koi8-r;
        #access_log  logs/host.access.log  main;
        location / {
            proxy_pass   http://tomcatserver1
;   index index.html index.htm; } }

通过以上配置,便可以实现,在访问192.168.70.169这个网站时,由于配置了proxy_pass地址,所有请求都会先通过nginx反向代理服务器,在服务器将请求转发给目的主机时,读取upstream为 tomcatsever1的地址,读取分发策略,配置tomcat1权重为3,所以nginx会将大部分请求发送给49服务器上的tomcat1,也就是192.168.70.170;较少部分给tomcat2来实现有条件的负载均衡,当然这个条件就是服务器1、2的硬件指数处理请求能力。

1)down:表示单前的server暂时不参与负载

2)Weight:默认为1.weight越大,负载的权重就越大。

3)max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误

4)fail_timeout:max_fails 次失败后,暂停的时间。

5)Backup:其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。

配置方法二(可用):

#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  ‘$remote_addr - $remote_user [$time_local] "$request" ‘
    #                  ‘$status $body_bytes_sent "$http_referer" ‘
    #                  ‘"$http_user_agent" "$http_x_forwarded_for"‘;

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

  // 位置1:upstream
    upstream  192.168.70.169  {
      server   192.168.70.170;
      server   192.168.70.172;
      #ip_hash;
    }

    server {
        listen       80;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            root   html;
            index  index.html index.htm index.php;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        location ~ \.php$ {
            root           html;
            #fastcgi_pass   127.0.0.1:9000;
            fastcgi_index  index.php;
       #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
            fastcgi_param  SCRIPT_FILENAME  /$document_root$fastcgi_script_name;

       //位置2:proxy_pass 
            proxy_pass        http://192.168.70.169;
            proxy_set_header   Host             $host;
            proxy_set_header   X-Real-IP        $remote_addr;
            proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for;

            include        fastcgi_params;

        }

        # deny access to .htaccess files, if Apache‘s document root
        # concurs with nginx‘s one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }

    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

原文地址:https://www.cnblogs.com/wesky/p/9530046.html

时间: 2024-11-11 18:47:23

nginx负载均衡二:配置的相关文章

nginx 负载均衡的配置

服务器集群是我们那种大型百万级IP运维人员会操作的,今天小的也来给大家过一把nginx负载均衡配置集群方法,网上找了几篇文章,发现也不难呀. nginx负载均衡一, 1. 安装时不要安装在源代码同一个目录下,make时会报错的.  代码如下 复制代码 ./configure --prefix=/opt/nginx make && make install 2. 修改配置文件/opt/nginx/conf/nginx.conf 在server元素前增加:(假设两个tomcat的端口都是808

nginx负载均衡简单配置

准备三台虚拟机来做这个实验: 192.168.232.132        web服务器 192.168.232.133        web服务器 192.168.232.134        负载均衡服务器 首先三台电脑预装nginx软件: 1.导入外部软件库 rpm -Uvh http://dl.iuscommunity.org/pub/ius/stable/Redhat/6/i386/epel-release-6-5.noarch.rpm rpm -Uvh http://dl.iusco

Nginx负载均衡的配置

(本文把所有centos的系统命令用斜体加黑表示,以便各位阅读) 反向代理一般都是跟负载均衡搭配使用的,而负载均衡也分为硬件和软件两种,nginx作为一款服务器硬件,虽然比不上硬件的负载均衡那么牛,但是在软件的负载均衡里也已经非常强大了. nginx作为一个"代理服务器",能起到阀门的作用,而且这个阀门可以各种调整,而这些调整就是负载均衡的配置. 首先,先打开浏览器,输入183.232.41.1,回车之后出现的是京东的界面,如果有京东的账号,我们可以输入一下,然后关闭窗口.再在新的窗口

Linux学习总结(四十三)nginx 负载均衡 https 配置

1 nginx 负载均衡 当被代理的服务端为多台服务器时,就存在一个分发的问题,那么就涉及到一个负载均衡的概念.如何让客户端请求按照预定的设想均衡的分发到各个服务器上,就要使用各种均衡算法.下面介绍的ip哈希算法可以实现如下目的.当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上.这样,当来自某个IP的用户在后端Web服务器A上登录后,再访问该站点的其他URL,能够保证其访问的还是后端Web服务器A.如果请求的网站涉及到用户

nginx 负载均衡简单配置

配置要求: 三台服务器 127.0.0.1       主负载(把访问请求分给主机池) 127.0.0.2       主机2 127.0.0.3       主机3 第一步: 配置127.0.0.1(主负载)主机 nginx.conf文件 将主机池添加于 nginx.conf文件中的http 中 upstream mysvr{ server 127.0.0.2 weight=1; server 127.0.0.3 weight=3;} 如图: 主机池参数简介 weight 为该主机权重(图中配

Nginx负载均衡简易配置

多台Web服务器水平扩展,进行负载均衡对外服务,是一种很常见的方案. 常用方法用DNS轮询,LVS. DNS轮询虽然有配置简单的有点,但无法实现健康检查,DNS修改需要较长时间失效,对于无域名的内部服务需要手动修改客户端hosts. LVS实现功能强大,可配置项多,能实现会话保持,但消耗机器数多,不适合中型和小型项目. 其实Nginx也能实现负载均衡,而且配置简单,通过ip_hash也能实现会话保持. 配置方法: 1.轮询: 此种配置最为简单也最为常用,请求将会依次交给不同的服务器处理,但无法实

nginx 负载均衡proxy 配置

在http模块 加入 upstream fuzai{server 服务器ip;      #有端口的话 ip:端口 默认80端口可以不写} 在server 模块需要负载的location加入 location / {proxy_pass http://dis; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_for

nginx负载均衡精简配置实例

[[email protected] ~]# vim nginx.conf user nginx; worker_processes 1; error_log /var/log/nginx/error.log warn; pid /var/run/nginx.pid; events { worker_connections 1024; } http { upstream pools { server 10.10.0.110:8080 weight=1; server 10.10.0.110:80

nginx负载均衡的配置方法

upstream www.***.com { server 192.168.2.72:80; server 192.168.2.4:80; server 192.168.2.5:80; } server { listen 80; server_name www.***.com; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http://www.***.com; proxy_set_