用lvs+keepalive构建高可用的后端nginx+tomcat

nginx和tomcat实现动静分离,加快访问网站的速度。
工作流程就是
    lvs---->keepalive---->nginx负载均衡---->tomcat
准备四台服务器:
1.   web1 :192.168.4.10
2.   web2 :192.168.4.11
3.   keep_master :192.168.4.20
4.   kepp_slave :192.168.4.21

web1和web2上: (web2一样)
nginx安装过程省略...
1.  配置ngnix
[[email protected] opt]# vim /usr/local/nginx/conf/nginx.conf 
user  nginx nginx;
worker_processes  1;
error_log  logs/error.log  info;
pid        logs/nginx.pid;
worker_rlimit_nofile 65535;
events {
    worker_connections  1024;
    use epoll;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    log_format  main  ‘$remote_addr - $remote_user [$time_local] "$request" ‘
                      ‘$status $body_bytes_sent "$http_referer" ‘
                      ‘"$http_user_agent" "$http_x_forwarded_for"‘;

    access_log  logs/access.log  main;

    #tcp_nopush     on;
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 300m;
    sendfile        on;
    tcp_nopush     on;
    keepalive_timeout  65;
    tcp_nodelay   on;
    server_tokens off;
    client_body_buffer_size 512k;
    proxy_connect_timeout 5;
    proxy_send_timeout 60;
    proxy_read_timeout 5;
    proxy_buffer_size  16k;
    proxy_buffers      4 64k;
    proxy_busy_buffers_size 128k;
    proxy_temp_file_write_size 128k;

    #keepalive_timeout  0;
    gzip  on;
    gzip_min_length 1k;
    gzip_buffers 4 16k;
    gzip_http_version 1.1;
    gzip_comp_level 2;
    gzip_types text/plain application/x -javascript text/css application/xml;
    gzip_vary on;

    server {
        listen       80;
        server_name  www.test123.com;
        index  index.html index.htm index.jsp index.do;
         root  /var/www/html;
        error_page  404              /404.html;
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
            }    
    location ~ \.(jsp|jspx|do)?$ {
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP   $remote_addr;
        proxy_pass http://127.0.0.1:8080;
        }
        location ~ .*\.(htm|html|gif|jpg|jpeg|png|bmp|swf|zip|rar|doc|mp3|pdf)
        {  expires   30d;
              }
        location ~ .*\.(js|css)?$
        {  expires    1h;
               }    
}

开启nginx
[[email protected] opt]# /usr/local/nginx/sbin/nginx
[[email protected] opt]# /usr/local/nginx/sbin/nginx
[[email protected] opt]#echo "192.168.4.10" >/var/www/html/index.html
[[email protected] opt]#echo "192.168.4.12" >/var/www/html/index.htm
安装tomcat 
安装过程省略...
2 . 配置tomcat(web2一样)
[[email protected] opt]# vim /usr/local/tomcat/conf/server.xml

 <Host name="www.test123.com"  appBase="a"
            unpackWARs="true" autoDeploy="true">
         

3 .创建jsp文件,测试 
[[email protected] opt]#vim /var/www/html/111.jsp
    Now time is: <%=new>

 [[email protected] opt]#vim /var/www/html/111.jsp
    Now time is: <%=new>

4.[[email protected] opt]#/usr/local/tomcat/bin/startup.sh

  [[email protected] opt]#/usr/local/tomcat/bin/startup.sh

5.编写realserver.sh脚本,在lo网卡上绑定VIP,设定ARP抵制功能
[[email protected] opt]# cat realserver.sh 
#!/bin/bash
snf_vip=192.168.4.100
case $1 in
start)
    ifconfig lo:0 $snf_vip netmask 255.255.255.255 broadcast $snf_vip
    /sbin/route add -host $snf_vip dev lo:0
    echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
    echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
    echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
    echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce        
    sysctl -p &>/dev/null
    echo -e "\033[32m start OK\033[0m"
    ;;
stop)
    ifconfig lo:0 down
    /sbin/route del $snf_vip &>/dev/null
    echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
    echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
    echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
    echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce        
    sysctl -p &>/dev/null
    echo -e "\033[32m stopd OK\033[0m"
    ;;
*)
    echo "Usage: $0 {start|stop}"
    exit 1
    ;;
esac
exit 0

6 . 运行脚本。
[[email protected] opt]#./realserver.sh start 
[[email protected] opt]#./realserver.sh start 

7 . keep_master和keep_slave上安装ipvsadm和keepalive(keep_slave一样)
[[email protected] keep_master LoadBalancer]# rpm -ivh ipvsadm-1.26-4.el6.x86_64.rpm
[[email protected]_master ~]# yum install -y gcc kernel-devel openssl-devel popt-devel
[[email protected]_master ~]# tar -xzf keepalived-1.2.7.tar.gz
[[email protected]_master ~]# cd keepalived-1.2.7
[[email protected]_master keepalived-1.2.7]# ./configure --sysconf=/etc
[[email protected]_master keepalived-1.2.7]# make && make install
[[email protected]_master keepalived-1.2.7]# ln -s /usr/local/sbin/keepalived /sbin/
[[email protected]_master keepalived-1.2.7]# chkconfig keepalived on
[[email protected]_master opt]# cat keepalived.conf 
! Configuration File for keepalived

global_defs {
   notification_email {
     [email protected]
   }
   notification_email_from [email protected]
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.4.100
    }
}

virtual_server 192.168.4.100 80 {
    delay_loop 6
    lb_algo wrr
    lb_kind DR
    persistence_timeout 60
    protocol TCP

    real_server 192.168.4.10 80 {
        weight 1
        TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
        connect_port 80
        }
    }
    real_server 192.168.4.11 80 {
        weight 1
        TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
        connect_port 80
        }
    }
}

在keep_slave上只需修改
state MASTER     ------>state SLAVE
router_id  lvs1  ------> router_id  lvs2
priority 100     ------> priority 80

8. [[email protected] opt]#  vim /etc/rc.local  (web2一样)
ulimit -SHn 65535 65535
/usr/local/nginx/sbin/nginx
/usr/local/tomcat/bin/startup.sh
/usr/local/bin/realserver.sh start

9.
[[email protected]_master opt]#/etc/init.d/keepalived start
[[email protected]_slave opt]#/etc/init.d/keepalived start

10. 测试,在客户端测试
[[email protected]  ~]#vim /etc/hosts
192.168.4.100   www.test123.com
[[email protected]  ~]# curl www.test123.com
192.168.4.10

关闭[[email protected] opt]# /usr/local/nginx/sbin/nginx -s stop
[[email protected]  ~]# curl www.test123.com
192.168.4.11

11.访问jsp
[[email protected]  ~]# curl www.test123.com/111.jsp
......

12.keepalive的主备测试就不测试了。
13. [[email protected]_master opt]#ipvsadm -Ln
时间: 2024-11-07 20:06:39

用lvs+keepalive构建高可用的后端nginx+tomcat的相关文章

keepalive构建高可用LVS集群

一.什么是keepalived? 利用虚拟路由冗余协议(vrrp)技术,实现lvs的高可用,也可以对nginx和haproxy等轻量级带有负载均衡的软件进行高可用.因为keepalived非常轻量级,速度非常快,配置简单,所以受到众多企业运维人员青睐. 参考资料:http://outofmemory.cn/wiki/keepalived-configuration 二.虚拟路由备份协议 VRRP(Virtual Router Redundancy Protocol,虚拟路由冗余协议)是一种容错协

LVS+Keepalived构建高可用群集

今天以DR模式的LVS群集为基础,增加了一台从负载调度器,使用keepalived来实现主.备调度服务器的热备,从而构架具有负载均衡.高可用两种能力的LVS网站群集平台. 网站拓扑架构图 系统环境 主机 操作系统 IP地址 DR1主调度服务器: CentOS 7.0 x86_64 192.168.100.25 DR2备调度服务器: CentOS 7.0 x86_64 192.168.100.26 web1节点服务器: CentOS 7.0 x86_64 192.168.100.27 web2节点

构建高可用的LVS负载均衡集群 入门篇

一.LVS简介 LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.org.现在LVS已经是 Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须要重新编译内核以支持LVS功能模块,但是从Linux2.4内核以后,已经完全内置了LVS的各个功能模块,无需给内核打任何补丁,可以直接使用LVS提供的各种功能. LVS 集群采用IP负载和基于内容请求分

构建高可用的LVS负载均衡集群 进阶篇

一.lvs组件介绍 lvs的组件由两部分组成:工作在内核空间的ipvs模块和工作在用户空间ipvsadm工具.其中ipvsadm是规则生成工具,而ipvs是一个使规则生效的工具. 二.ipvsadm详解 构建高可用的LVS负载均衡集群 进阶篇,布布扣,bubuko.com

构建高可用服务器之四 Keepalive冗余Nginx

实验目的: 使用Keepalive来保证Nginx的高可用,进而实现网站的高可用! 实验拓扑: 实验环境: 如上拓扑图所示,master与slave是mysql主从,且有discuz论坛,且已经做高可用.(可参加<构建高可用服务器之三Keepalive冗余Mysql>).现在是刚搭建两台Nginx,均已安装keepalive,IP地址分别为192.168.1.2和192.168.1.5(可参加<构建Nginx服务器之一安装及虚拟主机配置>和<构建高可用服务器之一Keepali

通过haproxy + keepalive 实现高可用负载均衡

软件负载均衡一般通过两种方式来实现:基于操作系统的软负载实现和基于第三方应用的软负载实现.LVS就是基于Linux操作系统实现的一种软负载,HAProxy就是开源的并且基于第三应用实现的软负载. HAProxy相比LVS的使用要简单很多,功能方面也很丰富.当 前,HAProxy支持两种主要的代理模式:"tcp"也即4层(大多用于邮件服务器.内部协议通信服务器等),和7层(HTTP).在4层模式 下,HAProxy仅在客户端和服务器之间转发双向流量.7层模式下,HAProxy会分析协议,

基于Keepalived实现LVS双主高可用集群

前言 前面说过基于heartbeat的LVS高可用方案,今天带来另一种解决方案:基于Keepalived实现LVS双主高可用集群.什么是Keepalived呢,keepalived观其名可知,保持存活,在网络里面就是保持在线了, 也就是所谓的高可用或热备,用来防止单点故障的发生.本文将详细讲述Keepalived工作原理及高可用解决方案的实现. 相关介绍 Keepalived简介 Keepalived采用VRRP(virtual router redundancy protocol,虚拟路由冗余

基于heartbeat v1+ldirectord实现LVS集群高可用

前言 高可用集群,High Availability Cluster,简称HA Cluster,是指以减少服务中断时间为目的的服务器集群技术.通过上文可以看出,LVS集群本身并不能实现高可用,比如Director Server不能检测Real Server的健康度,一旦其中一台或全部Real Server宕机,Director Server还会继续转发请求,导致站点无法访问,同样,如果Director Server宕机站点就更不可能正常运转了.本文将讲解如何基于heartbeat v1实现LVS

LVS+Keepalived实现高可用负载均衡

用LVS+Keepalived实现高可用负载均衡,简单来说就是由LVS提供负载均衡,keepalived通过对rs进行健康检查.对主备机(director)进行故障自动切换,实现高可用. 1. LVS NAT模式配置准备三台服务器,一台director, 两台real serverdr1: 外网ip 192.168.75.130,内网ip 10.1.1.10 两台real serverrs1: 内网ip 10.1.1.11rs2: 内网ip 10.1.1.12 两台real server的内网网