LVS DR配置和keepalived+LVS

LVS DR

准备工作
群集的虚拟VIP:192.168.1.222
dir分发器:192.168.1.220
rs1:192.168.1.223
rs2:192.168.1.234

rs1和rs2安装需要的web服务

[[email protected] src]# yum install -y nginx

在dir上安装ipvsadm,并配置路由转发和ipvsadm转发

#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/usr/sbin/ipvsadm
vip=192.168.1.222
rs1=192.168.1.234
rs2=192.168.1.223
ifdown ens33
ifup ens33 ? ? #重启网卡是为了清除原有的配置信息
#将虚拟ip配置到ens33的虚拟网口上,并指定vip的数据网关
ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev ens33:2
#清除ipvsadm原有的配置,配置对应的群集web主机的ip和端口.rs配置一个主机ip对应群集的vip(虚拟ip)
$ipv -C
$ipv -A -t $vip:80 -s wrr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1

为了让处理完的数据直接通过群集的vip返回给客户端,不再经过dir分发器,减少了分发器的处理压力。rs1和rs2上也需要配置群集vip,并开启路由转发,数据通过lo:0的虚拟VIP直接响应客户端的数据请求

#!/bin/bash
vip=192.168.1.222
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
ifdoen lo
ifup lo
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
测试访问群集的vip。分发器会按照轮询算法来分配给后端web服务器处理

在windows浏览器中访问时会有等待时间。等待一会刷新就可以验证到不同主机的访问了(web服务器提供不同的首页内容来加以判断)

keepalived+LVS负载均衡

为什么需要keepalived+LVS的结构

在使用lvs分发数据时,lvs分发点是单一的,一但分发器故障的话会导致整个后端web无法访问。并且如果后端如果web服务器发生故障,LVS同样会把请求交给这台故障的服务器IP。但是这样的话会无法完成这次访问请求,因为分发到的web服务器不可能去响应这个请求

keepalived+lvs ?准备工作

dir分发器:192.168.1.220
dr1:192.168.1.223
dr2:192.168.1.234
群集使用的VIP:192.168.1.200

在dir分发器上安装keepalived
如果有两台以上的keepalived。那么就需要配置高可用,这里没有配置高可用服务

[[email protected] src]# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {
 ? ?#备用服务器上为 BACKUP
 ?  state MASTER
 ? ?#绑定vip的网卡为ens33,你的网卡和阿铭的可能不一样,这里需要你改一下
 ?  interface ens33
 ?  virtual_router_id 51
 ? ?#备用服务器上为90
 ?  priority 100
 ?  advert_int 1
 ?  authentication {
 ? ? ?  auth_type PASS
 ? ? ?  auth_pass aminglinux
 ?  }
 ?  virtual_ipaddress {
 ? ? ? ?192.168.1.200 ? ? ? #指定虚拟ip的配置
 ?  }
}
virtual_server 192.168.1.200 80 { ?#指定虚拟ip的配置,并指定访问端口
 ? ?#(每隔10秒查询realserver状态) ?
 ?  delay_loop 10
 ? ?#(lvs 算法)
 ?  lb_algo wlc
 ? ?#(DR模式)
 ?  lb_kind DR
 ? ?#(同一IP的连接60秒内被分配到同一台realserver)
 ?  persistence_timeout 60
 ? ?#(用TCP协议检查realserver状态)
 ?  protocol TCP

 ?  real_server 192.168.1.223 80 {
 ? ? ? ?#(权重)
 ? ? ?  weight 100
 ? ? ?  TCP_CHECK {
 ? ? ? ?#(10秒无响应超时)
 ? ? ?  connect_timeout 10
 ? ? ?  nb_get_retry 3
 ? ? ?  delay_before_retry 3
 ? ? ?  connect_port 80
 ? ? ?  }
 ?  }
 ?  real_server 192.168.1.234 80 {
 ? ? ?  weight 100
 ? ? ?  TCP_CHECK {
 ? ? ?  connect_timeout 10
 ? ? ?  nb_get_retry 3
 ? ? ?  delay_before_retry 3
 ? ? ?  connect_port 80
 ? ? ?  }
 ? ? }
}

在分发器上开启路由转发功能,让请求数据转发到后端的web server上,由web server去处理请求
echo 1 > /proc/sys/net/ipv4/ip_forward
rs1和rs2上的路由转发:在后端的web server上开启路由转发,且配置虚拟ip地址,让处理后返回的数据直接通过配置的vip响应给客户端

#!/bin/bash
vip=192.168.1.200
ipdown lo
ipup lo
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

清除之前测试产生的ipvsadm配置,然后启动keepalived服务,注意这里是单台keepalived,配置高可用需要两台及以上的数量

[[email protected] src]# ipvsadm -C
[[email protected] src]# systemctl restart keepalived
[[email protected] src]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
 ?-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.220:80 wlc persistent 60
 ?-> 192.168.1.223:80 Route 100 0 0 ? ? ? ?
 ?-> 192.168.1.234:80 Route 100 0 0 ?

清除分发服务器上公网网口的虚拟ip或其他配置,然后启动keepalived服务并查看网卡上的虚拟ip是否存在

[[email protected] src]# ifdown ens33 && ifup ens33
Device ‘ens33‘ successfully disconnected.
Connection successfully activated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/3)
[[email protected] src]# systemctl restart keepalived
[[email protected] src]# ip a
lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
?  link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
?  inet 127.0.0.1/8 scope host lo
? ? ? valid_lft forever preferred_lft forever
?  inet6 ::1/128 scope host
? ? ? valid_lft forever preferred_lft forever
ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
?  link/ether 00:0c:29:e2:85:91 brd ff:ff:ff:ff:ff:ff
?  inet 192.168.1.220/24 brd 192.168.1.255 scope global ens33
? ? ? valid_lft forever preferred_lft forever
?  inet 192.168.1.200/32 scope global ens33 ? ? ? ? ? ? ?  <-------1.200是配置的虚拟ip
? ? ? valid_lft forever preferred_lft forever
?  inet6 fe80::1e68:a845:d31f:1bbc/64 scope link
? ? ? valid_lft forever preferred_lft forever

?web server启动nginx服务, 在浏览器中进行访问测试
暂停一个web server的服务,并在分发服务器上查看ipvsadm的配置,是否剔除掉了故障的服务器

原文地址:http://blog.51cto.com/8844414/2172921

时间: 2024-08-30 00:51:34

LVS DR配置和keepalived+LVS的相关文章

LVS DR 模式和 keepalived lvs

一.LVS DR 模式 1.准备工作 调度器(dir): 192.168.134.132 rs1:192.168.134.131 rs2:192.168.134.150 vip:192.168.134.200 2.将之前两台rs的网关修改回来. 将GATEWAY=192.168.134.100 修改为 192.168.134.2 3.在 dir 编辑配置文件  vim /usr/local/sbin/lvs_dr.sh #! /bin/bash echo 1 > /proc/sys/net/ip

LVS DR模式搭建 keepalived + LVS

lvs DR dir 编写脚本vim /usr/local/sbin/lvs_dr.sh #! /bin/bashecho 1 > /proc/sys/net/ipv4/ip_forwardipv=/usr/sbin/ipvsadmvip=192.168.91.200rs1=192.168.91.129rs2=192.168.91.130#注意这里的网卡名字ifdown ens33ifup ens33ifconfig ens33:2 $vip broadcast $vip netmask 255

Keepalived + LVS DR 配置 终版

Keepalived + LVS DR 配置 终版Keepalived负载均衡配置缺点LVS如果分发器dir宕机全部失效 dir做个高可用可避免,如果一个rs宕机,也会把请求发到rs上,无法自动识别完整架构需要两台服务器(角色为dir) 分别安装Keepalived软件,目的实现高可用,但Keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台KeepalivedKeepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚

LVS DR 配置

LVS DR 配置 架构图 架构说明: Vmware上实现,一共需要3台虚拟机.物理机模拟客户端.配置RR轮询的调度方法以便显示效果   Director主机配置 Director地址配置: VIP地址: 192.168.61.100 DIP地址: 192.168.93.133 ifonfig eth0:0 192.168.61.100 netmask255.255.255.255 broadcast 192.168.61.100 up route add -host 192.168.61.10

LVS/DR,TUN + keepalived配置

注意:前面虽然我们已经配置过一些操作,但是下面我们使用keepaliave操作和之前的操作是有些冲突的,所以若是之前配置过DR,请首先做如下操作:dr上执行: $ipv -Cifconfig eth0:0  down 前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常.所以需要有一种机制用来检测real server的状态,这就是keepalived.它的作用

centos6中三台物理机配置nginx+keepalived+lvs

以下只是简单的安装配置,并没有测试这套负载,各种参数大家可以自己测试 vip:10.0.50.170 lvs server:10.0.50.183 real server:10.0.50.184/185 183/184/185同步时间,并且安装nginx # ntpdate time.nist.gov # yum install nginx # /etc/init.d/nginx start 在184/185上编写测试页面/usr/share/nginx/html/index.html 183上

LVS DR 配置详解

DR模式是通过改写请求报文的目标MAC地址,将请求发给真实服务器的,而真实服务器响应后的处理结果直接返回给客户端用户.同TUN模式一样,DR模式可以极大的提高集群系统的伸缩性.而且DR模式没有IP隧道的开销,对集群中的真实服务器也没有必要必须支持IP隧道协议的要求.但是要求调度器LB与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境. DR模式是互联网使用比较多的一种模式. DR模式原理图: DR模式原理过程简述: VS/DR模式的工作流程图如上图所示,它的连接调度和管理与

Linux lvs DR配置

三台服务器,(1)做路由,(2)(3)做realserver IP为:192.168.196.121  (1) 192.168.196.122   (2) 192.168.196.123   (3) 要在(1) load banlance机器 上安装ipvsadm软件 可以在cluster目录里面找到,源码编译安装很麻烦,频频出错,这里不讲. 之后要执行 service ipvsadm save (如果不执行save启动不了) service ipvsadm start 在路由机器是开启IP转发

LVS DR 模式搭建、Keepalived+LVS DR模式搭建

LVS DR 模式搭建 Keepalived+LVS DR模式搭建 原文地址:http://blog.51cto.com/13515599/2097080