LVS + KEEPAlived 配置 DIR模式

1 .1 Lvs

LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR)

本文主要介绍DR模式运用

1 .2 DR模式     

DR模式是什么?撇开lvs调度算法部分,DR模式的原理就是,将报文直接路由给目标服务器(Direct Routing),其实这里没有routing啥事情,叫做Direct Select更准确一些,为什么这么说呢?因为他直接不修改数据包,他直接把数据包打包成以太网的数据帧,只是这个数据帧里的目标MAC地址是最终的真实服务器的MAC地址,所以DR模式要求在同一个物理网段,不能跨路由。

当目标服务器收到这个数据帧的时候,把它解包,当服务器发现数据包的目标地址(也就是VIP)是在本地的网络设备上(一般都是在真实服务器的lo:0上绑定一个vip地址),服务器处理这个数据包,然后根据本地路由表将响应报文直接返回给客户

2.1 keepalived 

这里是用keepalived来进行lvs的建立和服务器和vip的健康检查,其实keepalived就像一个shell,他自动的给你做lvs+vrrp。

keepalived本身来做真实服务器的健康检查,vrrp来做vip的冗余。

VIP:192.168.2.240

LVS:192.168.2.210 192.168.2.211

Realserver: 192.168.2.212 192.168.2.213

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

所需软件:keepalived

Ipvsadm(主要是管理查看作用)

# ln -s /usr/src/kernels/2.6.18-92.el5-i686 /usr/src/linux

# tar -zxvf ipvsadm-1.24.tar.gz

---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

先配置 Realserver  脚本:

/opt/lvs_server.sh  192.168.2.212

#!/bin/bash
# description: Config realserver
VIP=192.168.2.240
/etc/rc.d/init.d/functions
case "$1" in
start)
        /sbin/ifconfig lo:0 $VIP netmask 255.255.255.255 broadcast $VIP
        /sbin/route add -host $VIP dev lo:0
        echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
        echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce

        echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
        echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
        sysctl -p > /dev/null 2>&1
        echo "RealServer Start OK"
        ;;
stop)
        /sbin/ifconfig lo:0 down
        /sbin/route del $VIP > /dev/null 2>&1
        echo "0" > /proc/sys/net/ipv4/conf/lo/arp_ignore
        echo "0" > /proc/sys/net/ipv4/conf/lo/arp_announce

        echo "0" > /proc/sys/net/ipv4/conf/all/arp_ignore
        echo "0" > /proc/sys/net/ipv4/conf/all/arp_announce
        echo "RealServer Stoped"
        ;;
*)
        echo "Usage: $0 {start|stop}"
        exit 1
esac
exit 0

# scp /opt/lvs_server.sh [email protected]:/opt/

加入到开

vim /etc/rc.d/rc.local

/bin/bash /opt/lvs_real start

配置keepalived :

vim /etc/keepalived/keepalived.conf 192.168.2.210

! Configuration File for keepalived

global_defs {
   notification_email {
     [email protected]
   }
   notification_email_from [email protected]163.com
   smtp_server smtp.163.com
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 100
    advert_int 5
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.2.240
    }
}

virtual_server 192.168.2.240 80 {
    delay_loop 6
    lb_algo wlc
    lb_kind DR
    persistence_timeout 60
    protocol TCP

    real_server 192.168.2.212 80 {
        weight 3
        TCP_CHECK {
          connect_timeout 10
          nb_get_retry 3
          delay_before_retry 3
          connect_port 80
        }
}
    real_server 192.168.2.213 80 {
        weight 3
        TCP_CHECK {
          connect_timeout 10
          nb_get_retry 3
          delay_before_retry 3
          connect_port 80
        }
    }

}

# scp /etc/keepalived/keepalived.conf [email protected]:/etc/keepalived/

lvs_sync_daemon_inteface eth0  #负载均衡器之间的监控接口,类似于HA HeartBeat的心跳线。但它的机制优于Heartbeat,因为它没有“裂脑”这个问题,它是以优先级这个机制来规避这个麻烦的。在DR模式 中,lvs_sync_daemon_inteface 与服务接口interface 使用同一个网络接口

virtual_router_id 51 #虚拟路由标识,这个标识是一个数字,并且同一个vrrp实例使用唯一的标识。即同一个vrrp_stance,MASTER和BACKUP的virtual_router_id是一致的,同时在整个vrrp内是唯一的

mcast_src_ip 192.168.2.240

#mcast_src_ip #多播的源ip,设置为这台lvs的ip 好像不用也行

priority 100 #路由的优先级别,主lvs要设置的比从lvs要高

advert_int 1

authentication {

auth_type PASS #同一vrrp实例MASTER与BACKUP 使用相同的密码才能正常通信

auth_pass 1111

}

virtual_ipaddress {

192.168.11.240 #虚拟ip,也就是vip地址。可以设置很多组vip

}

delay_loop 3 #健康检查的间隔

lb_algo wlc #lvs的调度算法

lb_kind DR #lvs的调度模式

persistence_timeout 50 #连接保持的超时时间,保证一个用户的连接总是导向到同一个服务器,当用户第一次访问的时候,他的访问请求被负载均衡器转给某个真实服务器,这样他看到一个登陆页面,第一次访问完毕;接着他在登陆框填写用户名和密码,然后提交;这时候,问题就可能出现了—登陆不能成功。因为没有会话保持,负载均衡器可能会把第2次的请求转发到其他的服务器

#用ipvsadm -Lcn 观察是否生效

protocol TCP

ha_suspend  #禁止,vip失效的时候对真实服务器进行健康检查(也就是说备用服务器不会去做真实服务器的健康检查)

# ipvsadm -L -n 这个命令查看 

时间: 2024-12-13 12:17:48

LVS + KEEPAlived 配置 DIR模式的相关文章

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

LVS + Keepalived 配置详解

LVS+Keepalived 配置 我们通过LVS-DR-MASTER,LVS-DR-BACKUP作为LVS负载均衡调度器,并且两者之间通过keepalived来两者之间的HA.keepalived本身就是为了LVS为开发的,所以说我们通过keepalived来进行LVS的配置就显得十分的方便.而且keepalived是直接操作ip_vs不用通过ipvsadm,所以更加方便. 实验拓扑图 LVS节点1配置: # yum install popt-devel openssl openssl-dev

利用lvs keepalived配置redis高可用及负载均衡

需求 我们用ES做日志服务,架构是 上游数据来源=>redis=>logstash=>ES redis目前还是单点, 没有做高可用, 现在数据量越来越多, 如果下游消费不出问题还好, redis里面数据来了就走,但是下游一旦出问题, 分给redis的内存半小时就撑满了. 看到redis3.0 beta版本已经提供了集群功能, 但是需要client以集群模式接入, 我们这么多上游用户, 不太可能统一要求他们改造. 公司也有硬件的LB, 同事在E公司的时候就是用的硬件LB. 但接入还要申请,

实例:LVS+Keepalived配置LVS的高可用

LVS+Keepalived配置LVS的高可用 我们这里LVS-DR模型的高可用集群: 实验环境:     vm1 LVS-DR1:              eth0 172.16.3.2/16              VIP :eth0:0 172.16.3.88              vm2 LVS-DR2:             eth0 172.16.3.3/16     vm3 Server-web1             RS1: eth0 172.16.3.1/16  

[转载]LVS+Keepalived之三大模式

LVS + Keepalived之三大模式 ====================================================================================== NAT模式: ====================================================================================== 一.仅lvs服务器端安装 yum install ipvsadm openssl-devel

LVS + Keepalived 配置

#keepalived 配置 ! Configuration File for keepalived global_defs { router_id LVS_DEVEL } ########VRRP Instance######## vrrp_instance VI_1 { state MASTER #指定Keepalived的角色,MASTER为主机服务器,BACKUP为备用服务器 interface eth2 #BACKUP为备用服务器 virtual_router_id 31 priori

lvs+keepalived配置

一.环境 lvs-keep-m: 192.168.3.24 lvs-keep-s: 192.168.3.25 RS1: 192.168.3.26 RS2: 192.168.3.27 VIP: 192.168.3.28 二.在所有节点都配置ntp同步时间 [[email protected] ~]# ntpdate asia.pool.ntp.org [[email protected] ~]# hwclock -w 三.RS1和RS2配置httpd服务,以及VIP RS1操作 [[email p

lvs+keepalived配置过程

---恢复内容开始--- ###lb01 操作 ####1.关闭keepalived iptables selinux ####2.手工添加LVS转发 #####1)配置lvs 添加vip ip addr add 10.0.0.3/24 dev eth0 label eth0:0 #####2)配置lvs规则 ipvsadm-save   -n ipvsadm -C ipvsadm --set 30 5 60 ipvsadm -A -t 10.0.0.3:80 -s wrr -p 20 ipvs

LVS+keepalived 的DR模式的两种做法

LVS DR模式搭建 准备工作 三台机器: dr:192.168.13.15 rs1:192.168.13.16 rs2: 192.168.13.17 vip:192.168.13.100 修改DR上的/etc/sysctl.conf文件 net.ipv4.ip_forward=0改为net.ipv4.ip_forward=1 第一种做法lo Dr上的配置 ! Configuration File for Keepalived ! --------------------------------