keepalived + haproxy 实现web 双主模型的高可用负载均衡

1、本文的架构图:

阐述各服务器用途:

1、haproxy在本构架中实现的是:负载均衡

2、keepalived实现对haproxy的高可用

3、apache static 实现静态页面的访问

4、aoache dynamic实现动态页面的访问,图中有两个是实现负载均衡的

配置各功能模块:

一、配置haproxy和keepalived

验证:

1、当一台keepalived宕机后,VIP会不会转移到另外一台服务器

2、当一台haproxy服务出故障,VIP会不会转移到另外一台服务器

注意:

那如果keepalived宕机了,haproxy服务还正常运行,我们要不要让另外一台服务器把VIP夺过去呢?

理论上来讲:最好不要,但是我们的keepalived中的脚本监控着haproxy的进程,keepalived宕机之后,就无从得知haproxy的健康状态,也不能决定自己的优先权priority降不降低了。所以,理论上来讲最好不要,但是实际中光靠keepalived是做不到的。

配置:

1、给两台服务器分别安装上keepalived

[[email protected] ~]# yum -y install keepalived

2、配置keepalived

[[email protected] ~]# vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
   notification_email {
        [email protected]    配置服务状态变化发送邮件到哪个地址
   }
   notification_email_from [email protected]
   smtp_server 127.0.0.1    给哪个smtp服务器发邮件
   smtp_connect_timeout 30    联系上面smtp服务器30秒联系不上,就超时
   router_id LVS_DEVEL
}
vrrp_script chk_haproxy {     本脚本是用来检测该服务器上haproxy服务的健康状态的
    script "killall -0 haproxy"
    interval 1
    weight -2
}
vrrp_instance VI_1 {
    state MASTER   这太服务器为主的keepalived
    interface eth0    通过eth0网卡广播
    virtual_router_id 200  虚拟路由id要改,如果在一个局域网中有多个keepalived集群
    priority 100   优先级
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 11112222
    }
    track_script {
        chk_haproxy
    }
    virtual_ipaddress {
        192.168.1.200   本机的虚拟IP
   }
    notify_master "/etc/keepalived/notify.sh master" 各不用状态下运行的脚本
    notify_backup "/etc/keepalived/notify.sh backup"
    notify_fault "/etc/keepalived/notify.sh fault"
}
vrrp_instance VI_2 {   另外一台主keepalived的从
    state BACKUP
    interface eth0
    virtual_router_id 57
    priority 99   设置要比另外一台主keepalived的优先级低
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    track_script {
        chk_mantaince_down
   }
    virtual_ipaddress {
        192.168.1.201
   }
}

3、写keepalived处在不同状态下所运行的脚本

#!/bin/bash
# Author: MageEdu <[email protected]>
# description: An example of notify script
#
vip=192.168.1.200
contact=‘[email protected]‘
notify() {
    mailsubject="`hostname` to be $1: $vip floating"
    mailbody="`date ‘+%F %H:%M:%S‘`: vrrp transition, `hostname` changed to be $1"
    echo $mailbody | mail -s "$mailsubject" $contact
}

case "$1" in
    master)
        notify master
        /etc/rc.d/init.d/haproxy start
        exit 0
    ;;
    backup)
        notify backup
        /etc/rc.d/init.d/haproxy stop
        exit 0
    ;;
    fault)
        notify fault
        /etc/rc.d/init.d/haproxy stop
        exit 0
    ;;
    *)
        echo ‘Usage: `basename $0` {master|backup|fault}‘
        exit 1
    ;;
esac
给脚本以执行权限:
chmod  +x  /etc/keepalived/notify.sh

4、配置haproxy

因为要实现动静分离,那么我们在配置文件中,就要定义动态资源静态资源转移到不同的服务上去

[[email protected] ~]# yum -y install haproxy  安装haproxy
[[email protected] ~]# vim /etc/haproxy/haproxy.cfg
    #
    log         127.0.0.1 local2
    chroot      /var/lib/haproxy
    pidfile     /var/run/haproxy.pid
    maxconn     4000
    user        haproxy
    group       haproxy
    daemon
    # turn on stats unix socket
    stats socket /var/lib/haproxy/stats
#---------------------------------------------------------------------
# common defaults that all the ‘listen‘ and ‘backend‘ sections will
# use if not designated in their block
#---------------------------------------------------------------------
defaults
    mode                    http      指定haproxy工作模式为http
    log                     global
    option                  httplog
    option                  dontlognull
    option http-server-close       当客户端超时时,允许服务端断开连接
    option forwardfor       except 127.0.0.0/8  在http的响应头部加入forwardfor
    option                  redispatch    #在使用了基于cookie的会话保持的时候,通常加这么一项,一旦后端某一server宕机时,能够将其会话重新派发到其它的upstream servers
    retries                 3
    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 3000
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend  main *:80  前端代理
    acl url_static       path_beg       -i /static /images /javascript /stylesheets
    acl url_static       path_end       -i .jpg .gif .png .css .js
    acl url_dynamic      path_end       -i .php
    use_backend static          if url_static
    default_backend             dynamic
#---------------------------------------------------------------------
# static backend for serving up images, stylesheets and such
#---------------------------------------------------------------------
backend static   后端的静态请求响应
    balance     roundrobin
    server      static 192.168.1.100:80 inter 3000 rise 2 fall 3 check maxconn 5000
#---------------------------------------------------------------------
# round robin balancing between the various backends
#---------------------------------------------------------------------
backend dynamic   后端的动态请求响应
    balance     roundrobin
    server  dynamic1 192.168.1.101:80 inter 3000 rise 2 fall 3 check maxconn 5000
    server  dynamic2 192.168.1.102:80 inter 3000 rise 2 fall 3 check maxconn 5000
listen statistics
        mode http
        bind *:8080
~       stats enable
        stats auth admin:admin
        stats uri /admin?stats   指定URI的访问路径
        stats admin if TRUE
        stats hide-version
        stats refresh 5s
        acl allow src 192.168.0.0/24   定义访问控制列表
        tcp-request content accept if allow
        tcp-request content reject

5、配置另外一台haproxy服务器

因为两台服务器的配置大体相同,我们就直接讲以上配置好的复制文件和脚本文件都传到这台haproxy服务器上,做下修就可以了

[[email protected] ~]# scp /etc/keepalived/keepalived.conf [email protected]:/etc/keepalived/
[email protected]‘s password:
keepalived.conf                                                                               100% 4546     4.4KB/s   00:00
[[email protected] ~]# scp /etc/keepalived/notify.sh [email protected]:/etc/keepalived/
[email protected]‘s password:
notify.sh                                                                                     100%  751     0.7KB/s   00:00
[[email protected] ~]# scp /etc/haproxy/haproxy.cfg [email protected]:/etc/haproxy/
[email protected]‘s password:
haproxy.cfg                                                                                   100% 3529     3.5KB/s   00:00

传输完成,接着来配置 /etc/keepalived/keepalived.conf  因为两个节点上的/etc/haproxy/haproxy.cfg相同不用更改

    interface eth0
! Configuration File for keepalived
global_defs {
   notification_email {
        [email protected]
   }
   notification_email_from [email protected]
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}
vrrp_script chk_haproxy {
    script "killall -0 haproxy"
    interval 1
    weight -2
}
vrrp_instance VI_1 {
    state BACKUP      这台把master改成 backup
    interface eth0
    virtual_router_id 200
    priority 99       优先级调的比上一个低
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 11112222
    }
    track_script {
        chk_haproxy
    }
    virtual_ipaddress {
        192.168.1.200
   }
}
vrrp_instance VI_2 {
    state MASTER      本台的这个要调成MASTER,上个是backup
    interface eth0
    virtual_router_id 57
    priority 100    这个优先级也要高于上个
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.1.201
   }
    notify_master "/etc/keepalived/notify.sh master"
    notify_backup "/etc/keepalived/notify.sh backup"
    notify_fault "/etc/keepalived/notify.sh fault"
}


注意:

notify_master "/etc/keepalived/notify.sh master"

notify_backup "/etc/keepalived/notify.sh backup"

notify_fault "/etc/keepalived/notify.sh fault"

3个状态分别要执行的脚本,只能放在 MASTER中,原因是:因为是互为主从,每个主的都会有个另外一个主的从,如果

把这 “3个状态执行脚本” 写入到从的区域中,那么另外一个主的从状态就会执行这个脚本,因为就会停掉所要高可用的

程序,这就造成了,两个VIP全部转移到其中一个服务器上去。



我们来验证下,如果keepalived和haproxy分别宕机,vip会不会转移:

在两个节点上都启动 keepalived和haproxy服务

[[email protected] ~]# service haproxy start
Starting haproxy:                                          [  OK  ]
[[email protected] ~]# service keepalived start
Starting keepalived:                                       [  OK  ]

以下为正常情况:

keepalived 1:

keepalived 2:

我们来模拟让第一个haproxy停止掉,再看下,VIP会不会全到 keepalived 2上面去:

[[email protected] ~]# service haproxy stop
Stopping haproxy:                                          [  OK  ]

查看keepalived 1 和 keepalived 2

看,都过来了。。。。



验证负载均衡很动静分离

我们给3个web服务不同的网页

1、给apache static一个静态页面,来验证如果请求的不是以 .php结尾的网页文件都定向到这太服务器上来

2、给apache dynamic 1 、2 分别两个 index.php ,实现对动态网页的负载均衡

我们给apache static 一个符合-i .jpg .gif .png .css .js的网页,就给个图片网页吧

apache static

scp 1.png [email protected]:/var/www/html

apache dynamic 1

vim /var/www/html/index.php
192.168.1.101
<?php
    phpinfo();
?>

 apache dynamic 2

vim /var/www/html/index.php
192.168.1.102
<?php
    phpinfo();
?>


1、我们来请求 1.png 结尾的静态文件

2、我们来请求 .php结尾的页面

如此看来,已经对以.php的动态页面做了负载均衡了

我们再通过 192.168.1.201 这个虚拟 ip 访问试试:

由此看来,也实现了双主模型了,两个haproxy同时可以服务了。。。



3、我们来看看状态页面

keepalived + haproxy 实现web 双主模型的高可用负载均衡,布布扣,bubuko.com

时间: 2024-08-03 11:33:47

keepalived + haproxy 实现web 双主模型的高可用负载均衡的相关文章

haproxy + keepalived 实现web 双主模型的高可用负载均衡

参考文章 http://xz159065974.blog.51cto.com/8618592/1405812 http://blog.chinaunix.net/uid-25266990-id-3989321.html http://my.oschina.net/davehe/blog/162560 http://www.osyunwei.com/archives/7512.html http://fighter.blog.51cto.com/1318618/1254815/ Haproxy+K

企业级-Mysql双主互备高可用负载均衡架构(基于GTID主从复制模式)

前言: 原理与思想 这里选用GTID主从复制模式Mysql主从复制模式,是为了更加确保主从复制的正确性.健康性与易配性.这里做的是两服务器A,B各有Mysql实例3310,两个实例间互为主从 主从复制模式采用GTID主从复制模式,在服务器A,B上配置keepalived负载均衡,通过VIP连接数据库,目的是一旦有某数据库宕机,keepalived 就会立即建VIP执行另外一台 健康的数据库实例上,实现快速切换,避免单点故障,从而保证业务的正常运行. 这里只做了 双主+keepalived  ,

keepalived-lvs-dr-主主模型实现高可用负载均衡

实验环境: 虚拟机:VMware Workstation 12.1 pro 操作系统:CentOS 7 keepalived-1.2.13-7.el7.x86_64 ipvsadm-1.27-7.el7.x86_64 httpd-2.4.6-40.el7.centos.x86_64 IP规划: DR-MASTER-DIP:172.18.1.110 VIP:172.18.1.88 DR-BACKUP-DIP:172.18.1.111 VIP:172.18.1.88 RS1:172.18.1.130

keepalived+nginx 双主模型实现高可用服务

一.keepalived的工作原理 keepalived是以VRRP协议为实现基础的,VRRP全称Virtual Router Redundancy Protocol,即虚拟路由冗协议. 虚拟路由冗余协议,可以认为是实现路由器高可用的协议,即将N台提供相同功能的路由器组成一个虚拟路由器组,这个组里面有一个master和多个backup,master上面有一个对外提供服务的vip(该路由器所在局域网内其他机器的默认路由为该vip),master会发组播,当backup收不到vrrp包时就认为mas

keepalived实现WEB服务集群的高可用负载均衡

要求:利用keepalived实现WEB服务集群的高可用负载均衡,即在lvs_dr模型中扮演director的角色,对来自用户的请求按照一定的算法分配至后端服务器中:且keepalived服务器可实现高可用. keepalived是vrrp协议的一种实现,专门为lvs设计,以实现对lvs高可用就集群中的dirctor进行冗余以及对realserver进行健康检测.当一台主机(MASTER)出现问题后,keepalived能够将VIP自动的分配到备用的主机上(BACKUP),从而实现了自身(dir

基于keepalived双主模型的高可用LVS

背景知识: keepalived:Keepalived的作用是检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web 服务器从系统中剔除,当web服务器工作正常后Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器. LVS:LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统. 实验系统:CentO

keepalived双主模型实现高可用ipvs的简单案例

写在前面:如果此文有幸被某位朋友看见并发现有错的地方,希望批评指正.如有不明白的地方,愿可一起探讨. 案例拓扑图 说明: 主机操作系统为:CentOS-6.5-x86_64 准备工作 安装keepalived和ipvsadm 在IP地址为10.170.2.60和10.170.2.61两台主机上安装keepalived和ipvsadm # yum -y install keepalived # yum -y install ipvsadm 安装httpd 在IP地址为10.170.2.101和10

双主模型高可用负载均衡集群的实现(keepalived+lvs-dr)

实现keepalived双主模型lvs高可用集群 一.拓扑图 二.环境准备 两台负载均衡调度器,两台web服务器. 调度器A环境: VS:一张网卡 DIP:192.168.0.7/24 VIP(主):192.168.0.200 VIP(备):192.168.0.201 软件包:yum install -y keepalived ipvsadm nginx(作用:sorry-server服务) 调度器B环境: VS:一张网卡 DIP:192.168.0.8/24 VIP(主):192.168.0.

Keepalived+Haproxy双主高可用负载均衡web和mysql综合实验

日期及版本:2014.5.4v1.0 架构图 实验目的: 1.Haproxy+Keepalived双主双机高可用模型,keepalived为Haproxy主从提供高可用保证haproxy-master若挂掉haproxy-backup能无缝接管,haproxy为后端Web提供负载均衡,缓解并发压力,实现WEB站点负载均衡+高可用性: 2. Haproxy反代web做动静分离: 3. Haproxy反代mysql 算法leastconn和roundrobin的不同效果: 系统环境: OS:cent