nginx 集群配置方式 (一)

我在本机装了3个虚拟机,

3个虚拟机都部署了相同的项目

地址分别为

192.168.20.133:8080

192.168.20.135:8080

192.168.20.136:8080

ngxin安装在133上, 重点配置如下:

因为我135 136 的权重为2, 133的权重为1 ,

我开着3个日志, 每次访问到哪个机器,日志会有滚动来确定访问到哪台虚拟机了

一般顺序为 135 136 135 136 133   135 136 135 136 133    135 136 135 136 133   但也不绝对

我把136的tomcat停止之后, 133 和135能够继续提供服务,保证一台服务器挂掉之后其他服务器继续工作。

所有配置:

#user  nobody;
worker_processes  1;
error_log  /usr/nginxLog/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;
#pid       /usr/nginxLog/nginx.pid;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    log_format  main  ‘$remote_addr - $remote_user [$time_local] "$request" ‘
                      ‘$status $body_bytes_sent "$http_referer" ‘
                      ‘"$http_user_agent" "$http_x_forwarded_for"‘;
    #access_log  logs/access.log  main;
    access_log /usr/nginxLog/access.log;
    sendfile        on;
    #tcp_nopush     on;
    #keepalive_timeout  0;
    keepalive_timeout  65;
    #gzip  on;
 #upstream作负载均衡,在此配置需要轮询的服务器地址和端口号,max_fails为允许请求失败的次数,默认为1.
    #weight为轮询权重,根据不同的权重分配可以用来平衡服务器的访问率。
    upstream hostname {
        server 192.168.20.133:8080 max_fails=0 weight=1;
        server 192.168.20.135:8080 max_fails=0 weight=2;
server 192.168.20.136:8080 max_fails=0 weight=2;
    }
    
    server {
        listen       80;
        server_name  localhost;
        #charset koi8-r;
        #access_log  logs/host.access.log  main;
        location / {
            #root   html;
            #index  index.html index.htm;
            proxy_pass http://hostname;
    proxy_set_header  X-Real-IP $remote_addr;
        }
  
   #启用nginx status 监听页面
        location /nginxstatus {
            stub_status on;
            access_log on;
        }
        #error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}
        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}
        # deny access to .htaccess files, if Apache‘s document root
        # concurs with nginx‘s one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }
    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;
    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;
    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;
    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
}
时间: 2024-10-29 19:08:31

nginx 集群配置方式 (一)的相关文章

nginx集群配置

作者:夕阳小子 时间:2017-5-1 优化思路: Nginx层面: 解决: nginx.conf 下面: work_connection 加大 worker_connections 10240; Worker_rlimit_nofiles 10000; Keepalive_timeout 0; 系统层面 1: 内核层面,加大连接数,并加快tcp回收 2: mysql层面,增大连接数 3: php层面,用长连接,节省连接数 4: 用memcached缓存,减轻mysql负担 A服务器:nginx

Centos Keepalived-Ha集群+Lvs-DR+Nginx集群配置

背景介绍 我们都知道一台服务器能提供的资源是有限的,如果想打破这个限制,只有两个办法,一个是购买硬件,提升服务器性能,但是性价比过高,而第二种方法这则是,使用集群软件让两台服务器处理一个服务的不同请求,分带单台服务器的负载,从而提升性能,实现这一的软件开源著名的有Nginx或者Lvs,这里我们使用的是LVS,但是lvs需要一个调度服务器,这样调度服务器就是一个集训的单点故障,一旦调度服务器出现故障,整个集群便崩溃,所以我们需要两台调度节点,一旦一个调度节点损坏,那么另一台调度节点开始工作,这里我

Redis系列--8、集群配置方式

一:关于redis cluster 1:redis cluster的现状 目前redis支持的cluster特性 1):节点自动发现 2):slave->master 选举,集群容错 3):Hot resharding:在线分片 4):进群管理:cluster xxx 5):基于配置(nodes-port.conf)的集群管理 6):ASK 转向/MOVED 转向机制. 2:redis cluster 架构 1)redis-cluster架构图 架构细节: (1)所有的redis节点彼此互联(P

Nginx集群之基于Redis的WebApi身份验证

目录 1       大概思路... 1 2       Nginx集群之基于Redis的WebApi身份验证... 1 3       Redis数据库... 2 4       Visualbox虚拟机ubuntu下的redis部署... 3 5       编写.NET WebApi的OnAuthorization身份验证... 6 6       编写.NET WebApi的ActionFilterAttribute令牌验证... 8 7       编写.NET WebApi的服务端.

linux 下nginx 集群CAS单点登录实现

1.单点登录服务器CAS应用配置于tomcat下. 1)key生成: keytool -genkey -alias mycas -keyalg RSA -keysize 2048 -keystore /mnt/disk1/keys/mycas.keystore keytool -export -file /mnt/disk1/keys/mycas.crt -alias mycas -keystore /mnt/disk1/keys/mycas.keystore 2)CAS发布tomcat中ser

nginx+tomcat集群配置(1)---根目录设定和多后端分发配置

前言: 对于javaer而言, nginx+tomcat集群配置, 已然成了web应用部署的主流. 大公司如此, 小公司亦然. 对于个人开发者而言, 资源有限, 往往多个web应用混部于一台服务器(云主机), 如何隔离访问这些服务资源? 彼此又不影响呢? nginx来为你排忧解难, ^_^. 本文将介绍tomcat的简单配置和部署, 以及nginx作为反向代理, 如何分流. 基础架构: 不成文的约定: 1). 一个tomcat容器部署一个webapp应用实例 2). url根目录访问webapp

Nginx+Memcached+Tomcat集群配置

1.   Nginx Nginx是通过将多个Web Server绑定到同一个IP地址下,以实现多个WebServer间的负载均衡,降低单个Web Server的负荷,以提高整体的性能与稳定性. 安装和配置Nginx的简单方式如下: 1)      下载并解压Nginx到本地目录:http://nginx.org/en/download.html 2)      对Nginx的配置主要是对它的配置文件/conf/nginx.conf的修改.如下链接是nginx.conf配置文件各个属性的详细说明:

nginx+tomcat集群配置(4)--rewrite规则和多应用根目录设定思路

前言: nginx中有一块很重要的概念, 就是rewrite规则. 它会对URL进行修改, 然后进行内部的重定向. rewrite授予了nginx更多的自由, 使得后级服务的接入更加地方便. 本文将简单讲述nginx的rewrite规则和原理, 同时讲解下如何借助rewrite实现单tomcat实例/多Web App服务 对应的多域名根目录访问. 案列目标: 首先来谈一下之前对于多Web App服务对应多域名根目录访问的方案. 注: 一个域名对应一个tomcat实例, 一个tomcat实例只包含

使用apache和nginx代理实现tomcat负载均衡及集群配置详解

实验环境: 1.nginx的代理功能 nginx proxy: eth0: 192.168.8.48 vmnet2 eth1: 192.168.10.10 tomcat server1: vmnet2 eth0: 192.168.10.20 tomcat server2: vmnet2 eth0: 192.168.10.30 # yum install -y nginx-1.8.1-1.el6.ngx.x86_64.rpm # vim /etc/nginx/conf.d/default.conf