位于2个网段的LVS的DR模型实验

实验规划说明:

Director两块网卡,IP地址分配如下:

1.本地公网IP(eth0):192.168.112.101

2.vip(eth1:1):192.168.112.100

3.dip(eth1):192.168.201.7

Realsever1两块网卡,IP地址分配如下:

1.rip(eth0):192.168.201.8

2.vip(lo:0):192.168.112.100

3.本地IP(eth1):192.168.112.8  //通过该IP以便从Realsever1可以访问Client.

Realsever2两块网卡,IP地址分配如下:

1.rip(eth0):192.168.201.9

2.vip(lo:0):192.168.112.100

3.本地IP(eth1):192.168.112.9  //通过该IP以便从Realsever1可以访问Client.

具体步骤如下:

1.配置realserver1的网络参数:

sysctl -p net.ipv4.conf.all.arp_ingore=1

sysctl -p net.ipv4.conf.eth0.arp_ingore=1

sysctl -p net.ipv4.conf.all.arp_announce=2

sysctl -p net.ipv4.conf.eth0.arp_announce=2

sysctl -p net.ipv4.ip_forward=1

若要上述信息永久生效需要写入/etc/sysctl.conf的配置文件.

ifconfig lo:0 192.168.112.100 broadcast 192.168.112.100 netmask 255.255.255.255 up

若要上述信息永久生效需要写入/etc/sysconfig/network-scripts/ifcfg-lo0的配置文件.

route add -host 192.168.112.100 dev lo:0

2.配置realserver2的网络参数:

sysctl -p net.ipv4.conf.all.arp_ingore=1

sysctl -p net.ipv4.conf.eth0.arp_ingore=1

sysctl -p net.ipv4.conf.all.arp_announce=2

sysctl -p net.ipv4.conf.eth0.arp_announce=2

sysctl -p net.ipv4.ip_forward=1

若要上述信息永久生效需要写入/etc/sysctl.conf的配置文件.

ifconfig lo:0 192.168.112.100 broadcast 192.168.112.100 netmask 255.255.255.255 up

若要上述信息永久生效需要写入/etc/sysconfig/network-scripts/ifcfg-lo0的配置文件.

route add -host 192.168.112.100 dev lo:0

3.配置director服务器:

sysctl -p net.ipv4.ip_forward=1

若要上述信息永久生效需要写入/etc/sysctl.conf的配置文件.

ifconfig eth1:1 192.168.112.100 broadcast 192.168.112.100 netmask 255.255.255.255 up

route add -host 192.168.112.100 dev eth1:1

4.配置lvs.

[[email protected] ~]# ipvsadm -A -t  192.168.112.100:80 -s rr

[[email protected] ~]# ipvsadm -a -t  192.168.112.100:80 -r 192.168.201.8 -g

[[email protected] ~]# ipvsadm -a -t  192.168.112.100:80 -r 192.168.201.9 -g

[[email protected] ~]# ipvsadm -Ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  192.168.112.100:80 rr

-> 192.168.201.8:80             Route   1      0          0

-> 192.168.201.9:80             Route   1      0          0

5.使用浏览器进行测试:

6.查看状态:

[[email protected] ~]# ipvsadm -Ln --stats

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port               Conns   InPkts  OutPkts  InBytes OutBytes

-> RemoteAddress:Port

TCP  192.168.112.100:80                 53      271        0    28193        0

-> 192.168.201.8:80                   27      140        0    13983        0

-> 192.168.201.9:80                   26      131        0    14210        0

7.至此,基于2个网段的LVS的DR模型测试完成.

时间: 2024-08-08 20:11:42

位于2个网段的LVS的DR模型实验的相关文章

Linux实验报告-构建一个LVS的DR模型

Linux实验报告-构建一个LVS的DR模型 实验背景: 学习笔记,构建一个LVS的DR模型 实验目的: 了解LVS的DR模型工作原理 实现一个LVS的DR模型的实验 实验环境: Vmware Workstation 9,CentOS 6.4  实验步骤: 1,实验目的规划如下模型,CIP.VIP.DIP与RIP在同一网段 2.RS1上配置如下: 配置内核参数: #echo 1 > /prco/sys/net/ipv4/conf/lo/arp_ignore                    

lvs+srs(dr模型)

参考: https://my.oschina.net/fengjihu/blog/416883 (srs集群模式) http://blog.csdn.net/reblue520/article/details/50857078 (lvs负载均衡) http://www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html (arp_ignore和arp_announce) http://www.linuxvirtualserver.org/docs

LVS基于DR模型实现负载均衡集群实验

实验拓扑: 实验规划: Director: eth0   DIP: 192.168.1.40 eth0:0 VIP: 192.168.1.41 RS1: eth0  RIP1: 192.168.1.20 lo:0  VIP: 192.168.1.41 RS2: eth0  RIP2: 192.168.1.21 lo:0  VIP: 192.168.1.41 实验步骤: 在各RS上部署web服务 yum install httpd -y echo "server is working."

集群--LVS的DR模型配置

1.查看内核是否有IPVS内核模块 grep -i 'ip_vs' /boot/config-2.6.32-431.el6.x86_64 或者 Centos6.5内核已经自带安装了lvs 2.安装ipvsadm内核中的lvs是通过ipvsadm来进行管理的 yum install -y ipvsadm 3.环境准备 管理IP地址 角色 备注 192.168.1.114 调度器(Director) 对外提供VIP服务的地址为192.168.1.88 192.168.1.115 RS1   192.

LVS负载均衡DR模型实验

lvsDR模型原理: 外部请求到来时,源IP是CIP目标IP是VIP,进入路由,路由arp解析,由于只能让Director给予响应,所以禁用RS的arp响应广播,只能响应连入网络中的接口对应的ip的解析,所以将VIP设置在lo:0接口,这样之后Director可以响应路由器的arp解析,客户端请求进去Director,通过PREROUTING进入INPUT,在INPUT设置了lvs服务,凡是请求vip:80的请求,均进行转发,于是在Director INPUT链上根据调度规则,选出合适的RS,进

LVS集群DR、NAT模型配置, 及使用ldirectord完成LVS DR模型集群搭建

首先我们有三台主机:其中172.16.192.168作为前台主机:另外172.16.254.18和172.16.254.105作为后端主机,作为测试分别运行有web服务,并测试可用,如下图. 一.LVS NAT模型集群配置实验 1.首先在后端Real Server上设置默认网关,执行前端Virtual Server 2.在前端Virtual Server上开启路由转发功能 3.配置前端LVS集群 4.测试 总结:经过初步测试,我们可以看出已经可以实现rr轮询调度,修改相应的调度算法则可以实现不同

基于LVS的DR模式实现PHP应用

LVS-DR模式: 客户端请求服务器上的资源,就会发送请求报文,请求报文到达LVS调度器,调度器拆解报文首部,查看到请求的目标IP是自己,然后根据请求的目标端口并且根据调度算法随机挑选出一台Real Server服务器,这时在请求报文首部在次封装一层帧,即MAC地址,源MAC是自己,目标MAC是RS服务器.RS服务器接收到报文请求并处理请求,构建响应报文并发送给客户端,不经过调度器,所以避免了调度器过载导致并发出现瓶颈.因为RS是直接发送响应报文给客户端,所以需要RS服务器上需要配置调度器的公网

LVS-NAT/DR模型

1.使用NAT模型的TCP协议类型的lvs服务负载均衡一个php应用,如Discuz!论坛或者phpMyAdmin: 2.使用DR模型的FWM类型的lvs服务负载均衡一个php应用,如Discuz!论坛或者phpMyAdmin: 注意:以上两个集群需要考虑两个问题: 1) 是否需要会话保持: 2) 是否需要共享存储: ------------------------------------------------------------------------------------------

LVS + keepalived(DR) 实战

一.LVS体系结构 使用LVS架设的服务器集群系统有三个部分组成:最前端的负载均衡层,用Load Balancer表示,中间的服务器群组层,用Server Array表示,最底端的数据共享存储层,用Shared Storage表示,在用户看来,所有的内部应用都是透明的,用户只是在使用一个虚拟服务器提供的高性能服务. LVS体系结构如图1所示: 二.LVS 3种负载均衡技术对比 负载均衡技术有很多实现方案,有基于DNS域名轮流解析的方法.有基于客户端调度访问的方法.有基于应用层系统负载的调度方法,