LVS基于DR模型实现负载均衡集群实验

实验拓扑:

实验规划:

Director:

eth0   DIP: 192.168.1.40

eth0:0 VIP: 192.168.1.41

RS1:

eth0  RIP1: 192.168.1.20

lo:0  VIP: 192.168.1.41

RS2:

eth0  RIP2: 192.168.1.21

lo:0  VIP: 192.168.1.41

实验步骤:

  1. 在各RS上部署web服务
yum install httpd -y
echo "server is working." > /var/www/html/index.html

为突出实验效果,建议这里将RS的主页面设置为不同的内容

2. 设置ip以及内核参数

(1)Director配置

eth0的配置不再赘述,这里重点在于vip的配置

ifconfig eth0:0 192.168.1.41

添加一条特殊的路由以实现报文的顺利转发

当请求报文发往Director时,Director会调用内部的调度算法将请求转交给内部的RS,而此时报文的源地址为vip,流出的接口为eth0,按照linux对报文的处理规则,此时会将报文的源地址改为dip,而非vip

,因此,需要添加一条特殊的路由

route add -host 192.168.1.41 dev eth0:0

(2)RS配置

首先配置好eth0的网络地址,RS1:192.168.1.20 RS2: 192.168.1.21

修改两个内核参数

arp_ignore 接收到arp请求时的响应级别

0:只要本地配置的有相应地址,就给予响应

1:仅在请求的目标地址配置在请求到达的接口上的时候,才给予响应

arp_announce  定义将自己的地址向外通告时的通告级别

0:将本机任何接口上的任何地址向外通告

1:试图仅向目标网络通告与其网络匹配的地址

2:仅向与本地接口上地址匹配的网络通告

在RS端,vip需要隐藏,仅在相应客户端请求时作为源地址启动,而linux中,ip地址是属于主机的,因此为了不让vip暴露在局域网中,需要修改以上两个内核参数

sysctl -w net.ipv4.conf.eth0.arp_announce=2
sysctl -w net.ipv4.conf.all.arp_announce=2
sysctl -w net.ipv4.conf.eth0.arp_ignore=1
sysctl -w net.ipv4.conf.all.arp_ignore=1

配置vip以及添加路由

ifconfig lo:0 192.168.1.41 broadcast 192.168.1.41 netmask 255.255.255.255 up
route add -host 192.168.1.41 dev lo:0

3.配置ipvsadm策略,完成负载均衡功能

(1)添加集群服务,这里使用rr(轮询)调度算法

ipvsadm -A -t 192.168.1.41:80 -s rr

(2)添加RS

ipvsadm -a -t 192.168.1.41:80 -r 192.168.1.20 -g
ipvsadm -a -t 192.168.1.41:80 -r 192.168.1.21 -g

(4)测试服务

访问vip的地址192.168.1.41,刷新后可以发现网页内容交替变更,实验完成。

附:

LVS的持久连接:

无论使用什么算法,LVS持久连接都能实现在一定时间内,将来自同一个客户端请求发送至此前选定的RS

持久连接模板(内存缓冲区)

每一个客户端ip,以及分配给它的RS的映射关系

ipvsadm -A|E ... -p timeout

timeout: 持久连接时长,默认为300秒,单位是秒

PPC(持久端口连接): 来自于同一个客户端对同一个集群服务的请求,始终定向至此前选定的RS

PCC(持久客户端连接):来自于同一个客户端对所有端口的请求,始终定向至此前选定的RS

把所有端口统统定义为集群服务,一律向rs转发

ipvsadm -A -t 192.168.1.3:0 -s rr -p 600
    ipvsadm -a -t 192.168.1.3:0 -r 192.168.1.10 -p -w 2
    ipvsadm -a -t 192.168.1.3:0 -r 192.168.1.11 -p -w 1

PNMPP: 持久防火墙标记连接,(只需要持久一部分服务的时候)

iptables -t mangle -A PREROUTING -d 192.168.10.3 -i eth0 -p tcp --dport 80 -j MARK --set-mark 8
iptables -t mangle -A PREROUTING -d 192.168.10.3 -i eth0 -p tcp --dport 23 -j MARK --set-mark 8
ipvsadm -A -f 8 -s rr
ipvsadm -a -f 8 -r 192.168.10.7 -g -w 2
ipvsadm -a -f 8 -r 192.168.10.8 -g -w 2
时间: 2024-10-18 06:41:19

LVS基于DR模型实现负载均衡集群实验的相关文章

使用ipvsadm实现DR模型的负载均衡集群

负载均衡之LB-DR模型 主机规划 node1:eth0-->172.17.2.129/22 lo:0-->172.17.2.140/32 node2:eth0-->172.17.2.130/22 lo:0-->172.17.2.140/32 direc:eth0-->172.17.2.132/22 ech0:0-->172.17.2.140/32 实验准备: 1.配置IP node1~2: echo 1 > /proc/sys/net/ipv4/conf/all

Keepalived+LVS(dr)高可用负载均衡集群的实现

一 环境介绍 1.操作系统CentOS Linux release 7.2.1511 (Core) 2.服务keepalived+lvs双主高可用负载均衡集群及LAMP应用keepalived-1.2.13-7.el7.x86_64ipvsadm-1.27-7.el7.x86_64httpd-2.4.6-45.el7.centos.x86_64mariadb-5.5.52-1.el7.x86_64php-5.4.16-42.el7.x86_64 二 原理及拓扑图 1.vrrp协议vrrp(Vir

lvs+keepalived+nginx实现高性能负载均衡集群(转)

lvs+keepalived+nginx实现高性能负载均衡集群 一.为什么要使用负载均衡技术? 1.系统高可用性 2.  系统可扩展性 3.  负载均衡能力 LVS+keepalived能很好的实现以上的要求,LVS提供负载均衡,keepalived提供健康检查,故障转移,提高系统的可用性!采用这样的架构以后很容易对现有系统进行扩展,只要在后端添加或者减少realserver,只要更改lvs的配置文件,并能实现无缝配置变更! 二.LVS+Keepalived介绍 1.  LVS LVS是一个开源

LVS+Keepalived 实现高可用负载均衡集群

简介: 随着网站业务量的增长,网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如 F5 ,Array又太贵,你们又是创业型互联公司如何有效节约成本,节省不必要的浪费?同时还需要实现商业硬件一样的高性能高可用的功能?有什么好的负载均衡可伸张可扩展的方案吗?有!我们利用LVS+Keepalivd基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器.  一.LVS+Keepalived  介绍 1.  LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服

LVS-DR模式的配置及Heartbeat+Ldirectord+DR高可用负载均衡集群的搭建

主机环境 redhat6.5 64位 实验环境 服务端1 ip172.25.25.113   主机名:server3.example.com         服务端2 ip 172.25.25.114   主机名:server4.example.com          调度端2 ip 172.25.25.112   主机名:server2.example.com         调度端1 ip 172.25.25.111   主机名:server1.example.com 防火墙状态:关闭 虚

LVS/DR + keepalived搭建负载均衡集群

前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把nginx进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常.所以需要有一种机制用来检测real server的状态,这就是keepalived.它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived可以实现ha集群的功能,当然了也需要一台备用director. 备用director也需要安装一下keepalived软件.ip

lvs+keepalived+nginx实现高性能负载均衡集群

一.为什么要使用负载均衡技术? 1.系统高可用性 2.  系统可扩展性 3.  负载均衡能力 LVS+keepalived能很好的实现以上的要求,LVS提供负载均衡,keepalived提供健康检查,故障转移,提高系统的可用性!采用这样的架构以后很容易对现有系统进行扩展,只要在后端添加或者减少realserver,只要更改lvs的配置文件,并能实现无缝配置变更! 二.LVS+Keepalived介绍 1.  LVS LVS是一个开源的软件,可以实现LINUX平台下的简单负载均衡.LVS是Linu

负载均衡集群实验--LVS-DR模式

实验介绍:LVS负载均衡DR工作模式  工作原理: DR和REAL SERVER都是用同一个IP对外服务.但只有DR对ARP请求进行响应,所有REAL SERVER对本身这个IP的ARP请求保持静默.也就是说,网关会把对这个服务IP的请求全部定向给DR,而DR收到数据包后根据调度算法,找出对应的REAL SERVER,把目的MAC地址改为REAL SERVER的MAC并发给这台REAL SERVER.这时REAL SERVER收到这个数据包,则等于直接从客户端收到这个数据包无异,处理后直接返回给

LAMT基于mod_jk方式的负载均衡集群

一.系统环境 1.apache服务器 系统环境:CentOS release 6.5 (Final) ip地址:192.168.1.203 2.tomcat1服务器 系统环境:CentOS release 6.5 (Final) 外网ip:192.168.1.201 jdk版本:java version "1.7.0_25" tomcat版本:Apache Tomcat/7.0.68 3.tomcat2服务器 系统环境:CentOS release 6.5 (Final) 外网ip:1