LVS DR模式搭建、keepalived+LVS搭建介绍

LVS DR模式搭建

1.准备工作

  • DR模式同样需要三台虚拟机,三台机器只需要有“公网”IP,但在这种模式下又多了一个VIP。

    调度器dir:172.16.111.100
    真实服务器rs1:172.16.111.110
    真实服务器rs2:172.16.111.120
    VIP:172.16.111.200

2.DR模式搭建

在dir机器上写入脚本
[[email protected] ~]# vim /usr/local/sbin/lvs_dr.sh

增加如下脚本内容:

#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/usr/sbin/ipvsadm
vip=172.16.111.200
rs1=172.16.111.110
rs2=172.16.111.120
#注意这里的网卡名字
ifdown ens33   #为了不让网卡设置多次
ifup ens33
ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev ens33:2
$ipv -C
$ipv -A -t $vip:80 -s rr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1

#启动脚本
[[email protected] ~]# sh /usr/local/sbin/lvs_dr.sh
成功断开设备 ‘ens33‘。
成功激活的连接(D-Bus 激活路径:/org/freedesktop/NetworkManager/ActiveConnection/2)
在rs1与rs2上编写同样脚本
[[email protected] ~]# vim /usr/local/sbin/lvs_rs.sh

增加如下脚本内容:

#/bin/bash
vip=172.16.111.200
#把vip绑定在lo上,是为了实现rs直接把结果返回给客户端
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
#以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端
#参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

#启动脚本
[[email protected] ~]# sh /usr/local/sbin/lvs_rs.sh 

#在查看机器上查看路由及IP
[[email protected] ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         172.16.111.2    0.0.0.0         UG    100    0        0 ens33
172.16.0.0      0.0.0.0         255.255.0.0     U     100    0        0 ens33
172.16.111.200  0.0.0.0         255.255.255.255 UH    0      0        0 lo
[[email protected] ~]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet 172.16.111.200/32 brd 172.16.111.200 scope global lo:0
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:2c:5f:75 brd ff:ff:ff:ff:ff:ff
    inet 172.16.111.110/16 brd 172.16.255.255 scope global ens33
       valid_lft forever preferred_lft forever
    inet6 fe80::b6dc:6aed:f1d0:2f43/64 scope link
       valid_lft forever preferred_lft forever

[[email protected] ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         172.16.111.2    0.0.0.0         UG    100    0        0 ens33
172.16.111.0    0.0.0.0         255.255.255.0   U     100    0        0 ens33
172.16.111.200  0.0.0.0         255.255.255.255 UH    0      0        0 lo
[[email protected] ~]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet 172.16.111.200/32 brd 172.16.111.200 scope global lo:0
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:84:9e:21 brd ff:ff:ff:ff:ff:ff
    inet 172.16.111.120/24 brd 172.16.111.255 scope global ens33
       valid_lft forever preferred_lft forever
    inet6 fe80::5a44:6d44:2313:b46f/64 scope link
       valid_lft forever preferred_lft forever

3.浏览器访问测试

  • 浏览器里访问172.16.111.200,访问第一次的时候要等一段时间再刷新,有缓存。


keepalived + LVS

LVS架构中,不管是NAT模式还是DR模式,当后端的RS宕掉时,调度器依然会把请求转发到宕掉的RS上,这样的结果并不是我们想要的。keepalived就可以解决该问题,它不仅仅有高可用的功能,还有负载均衡的功能,在调度器上只要安装了keepalived,就不用再安装ipvsadm了,也不用去编写LVS相关的脚本了,也就是说keepalived已经嵌入了LVS功能,完整的keepalived+LVS架构需要有两台调度器实现高可用,提供调度服务的只需要一台,另外一台作为备用。

完整架构需要两台服务器(角色为dir)分别安装keepalived软件,目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived。

1.准备工作

  • keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本。
  • 准备三台机器分别为:

    dir(安装keepalived)172.16.111.100
    rs1:172.16.111.110
    rs2:172.16.111.120
    vip:172.16.111.200

2.配置dir机器上的keepalived配置文件

[[email protected] ~]# vim /etc/keepalived/keepalived.conf

删除之前的配置,增加如下配置内容:

vrrp_instance VI_1 {
    #备用服务器上为 BACKUP
    state MASTER
    #绑定vip的网卡为ens33,你的网卡和阿铭的可能不一样,这里需要你改一下
    interface ens33
    virtual_router_id 51
    #备用服务器上为90
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass aminglinux
    }
    virtual_ipaddress {
        172.16.111.200
    }
}
virtual_server 172.16.111.200 80 {
    #(每隔10秒查询realserver状态)
    delay_loop 10
    #(lvs 算法)
    lb_algo wlc
    #(DR模式)
    lb_kind DR
    #(同一IP的连接60秒内被分配到同一台realserver)
    persistence_timeout 60
    #(用TCP协议检查realserver状态)
    protocol TCP
    real_server 172.16.111.110 80 {
        #(权重)
        weight 100
        TCP_CHECK {
        #(10秒无响应超时)
        connect_timeout 10
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
    real_server 172.16.111.120 80 {
        weight 100
        TCP_CHECK {
        connect_timeout 10
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
     }
}

#由于之前执行过LVS的脚本,可能需要做以下操作:
#把之前的ipvsadm规则清空
[[email protected] ~]# ipvsadm -C
#把之前设置的VIP删除掉
[[email protected] ~]# systemctl restart network 

#在keepalived的配置文件中定义的LVS模式为DR模式,所以需要在两台rs上执行lvs_dr_rr.sh脚本,在上一节设置的脚本。
[[email protected] ~]# sh /usr/local/sbin/lvs_dr_rs.ch 

#启动keepalived
[[email protected] ~]# systemctl start keepalived
[[email protected] ~]# ps aux |grep keep
root       5753  0.0  0.1 120720  1396 ?        Ss   19:05   0:00 /usr/sbin/keepalived -D
root       5754  0.0  0.3 122916  3124 ?        S    19:05   0:00 /usr/sbin/keepalived -D
root       5755  0.0  0.2 127116  2660 ?        S    19:05   0:00 /usr/sbin/keepalived -D
root       5760  0.0  0.0 112680   972 pts/0    R+   19:06   0:00 grep --color=auto keep
[[email protected] ~]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:09:e5:58 brd ff:ff:ff:ff:ff:ff
    inet 172.16.111.100/16 brd 172.16.255.255 scope global ens33
       valid_lft forever preferred_lft forever
    inet 172.16.111.200/32 brd 172.16.111.200 scope global ens33:2
       valid_lft forever preferred_lft forever
    inet6 fe80::1ffb:cde1:5f3e:5778/64 scope link
       valid_lft forever preferred_lft forever
3: ens38: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:09:e5:6c brd ff:ff:ff:ff:ff:ff
    inet 172.16.13.129/24 brd 172.16.13.255 scope global dynamic ens38
       valid_lft 1486sec preferred_lft 1486sec
    inet6 fe80::1392:1882:3d3d:ad8c/64 scope link
       valid_lft forever preferred_lft forever

#使用执行命令ipvsadm -ln测试查看连接数

#停掉120上的nginx后,使用ipvsadm -ln查看如下
[[email protected] ~]# systemctl stop nginx
[[email protected] ~]# ps aux |grep nginx
root       7020  0.0  0.0 112680   976 pts/0    R+   19:29   0:00 grep --color=auto nginx
[[email protected] ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  172.16.111.200:80 wlc persistent 60
  -> 172.16.111.110:80            Route   100    0          0       

#关掉keepalived,
[[email protected] ~]# systemctl stop keepalived
[[email protected] ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn

#开启120上的nginx及keepalived后
[[email protected] ~]# systemctl start nginx
[[email protected] ~]# ps aux |grep nginx
root       7032  0.0  0.0  20500   624 ?        Ss   19:32   0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
nobody     7033  0.0  0.3  22944  3208 ?        S    19:32   0:00 nginx: worker process
nobody     7034  0.0  0.3  22944  3208 ?        S    19:32   0:00 nginx: worker process
root       7036  0.0  0.0 112680   972 pts/0    S+   19:32   0:00 grep --color=auto nginx
[[email protected] ~]# systemctl start keepalived  #dir机器
[[email protected] ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  172.16.111.200:80 wlc persistent 60
  -> 172.16.111.110:80            Route   100    0          0
  -> 172.16.111.120:80            Route   100    0          0
备注:在浏览器检验是否成功的方法也很简单,在浏览器直接访问VIP127.16.111.200,然后故意把其中一台rs的Nginx服务关掉,比如先关闭110的,然后再刷新浏览器看结果,刷新的时候需要使用组合键(ctrl+F5)强制刷新浏览器,这样就不会有缓存数据了。

原文地址:http://blog.51cto.com/taoxie/2066993

时间: 2024-10-22 16:28:48

LVS DR模式搭建、keepalived+LVS搭建介绍的相关文章

LVS DR 模式和 keepalived lvs

一.LVS DR 模式 1.准备工作 调度器(dir): 192.168.134.132 rs1:192.168.134.131 rs2:192.168.134.150 vip:192.168.134.200 2.将之前两台rs的网关修改回来. 将GATEWAY=192.168.134.100 修改为 192.168.134.2 3.在 dir 编辑配置文件  vim /usr/local/sbin/lvs_dr.sh #! /bin/bash echo 1 > /proc/sys/net/ip

LVS DR模式负载均衡的搭建(单网段)

LVS DR模式负载均衡的搭建(单网段) 实验需要五台虚拟机,都是centos7 客户端 路由器 lvs服务器 172.22.144.188 1接口172.22.144.17 2接口192.168.49.5 172.22.144.17 192.168.49.5 rs1服务器 rs2服务器 192.168.49.3 192.168.49.4 **客户端的配置** vim /etc/sysconfig/nerwork-scripts/ifcfg-ens33 DEVICE=ens33 NAME=ens

LVS DR模式 负载均衡服务搭建

LVS 负载均衡 最近在研究服务器负载均衡,阅读了网上的一些资料,发现主要的软件负载均衡方案有nginx(针对HTTP服务的负载均衡),LVS(针对IP层,MAC层的负载均衡).LVS模式工作在网络层,且由内核实现负载转发,效率要比nginx高.     LVS负载均衡包含三种模式: 1. NAT模式(类似路由器,实现外网内网地址映射,负载均衡服务器修改请求包的源以及目的MAC地址和IP地址,发送给实际服务器:负载均衡服务器,修改响应包的源以及目的MAC地址和IP地址,发送给客户端.请求和响应报

LVS DR配置和keepalived+LVS

LVS DR 准备工作群集的虚拟VIP:192.168.1.222dir分发器:192.168.1.220rs1:192.168.1.223rs2:192.168.1.234 rs1和rs2安装需要的web服务 [[email protected] src]# yum install -y nginx 在dir上安装ipvsadm,并配置路由转发和ipvsadm转发 #! /bin/bash echo 1 > /proc/sys/net/ipv4/ip_forward ipv=/usr/sbin

LVS DR模式搭建,keepalived + lvs

笔记内容: 18.11 LVS DR模式搭建 18.12 keepalived lvs 笔记日期:2017-11-13 18.11 LVS DR模式搭建 在实际生产环境中DR模式是用得最多的,NAT模式都用得比较少,因为NAT有一个瓶颈,服务器少还行,一旦服务器多的话,就不行了.所以DR模式才是重点,这一章节介绍如何搭建DR模式. 准备工作: 准备三台机器,一台作为分发器(dir),其他两台作为Real Server.三台机器都可以使用同一网段的IP,与NAT模式不同的是,三台机器都需要绑定一个

搭建LVS(DR模式)+Keepalived高可用群集,可跟做!!!

Keepalived的设计目标就是构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器.管理服务器池,而不仅仅用作双机热备.使用Keepalived构建LVS群集更加简便易用,主要优势体现在,对LVS负载调度器实现热备切换.提高可用性,对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入. 在基于LVS(DR模式)+Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,两台以上的节点服务器,本次实验以DR模式的LVS群集为基础,增加一台负载

LVS DR模式搭建、keepalived+LVS

LVS DR 模式搭建 准备工作 三台机器,三台机器均有公网IP. 调度器(director) IP:192.168.159.131 real server 1 (real1) IP:192.168.159.132 real server 2 (real2) IP:192.168.159.133 VIP:192.168.159.100 配置调度器(director) 创建一个脚本: [[email protected] ~]# vim /usr/local/sbin/lvs_dr.sh #! /

负载均衡(LVS DR模式搭建,DR只用一个公网ip,Keepalived+LVS DR)

一.LVS DR模式搭建 准备工作 三台机器: 分发器,dir:192.168.52.100 rs1:192.168.52.101  (网关改回来,之前nat模式改成100) rs2: 192.168.52.102  (网关改回来,之前nat模式改成100) vip:192.168.52.200   (这个虚拟ip需要绑定在每台机器上) 分发器dir上: [[email protected] ~]# iptables -F [[email protected] ~]# vim /usr/loca

18.11 LVS DR模式搭建;18.12 keepalived lvs

扩展 : haproxy+keepalived : http://blog.csdn.net/xrt95050/article/details/40926255 nginx.lvs.haproxy比较 : http://www.csdn.net/article/2014-07-24/2820837 keepalived中自定义脚本 vrrp_script : http://my.oschina.net/hncscwc/blog/158746 lvs dr模式只使用一个公网ip的实现方法 : ht