LVS NAT试验

三台服务器
    Real server 1:  10.10.10.51
    Real server 2:  10.10.10.52
    LVS Directory:  10.10.10.53/192.168.12.53
    VIP1:           10.10.10.111        #用于测试同网段下使用LVS
    VIP2:           192.168.12.111      #用于测试跨网段下使用LVS
RS1 和 RS2 默认网关指向Directory
全部服务器关闭selinux 和 iptables


Real server 1

yum install httpd -y
echo "Real Server 1" > /var/www/html/index.html 
service httpd start

Real server 2

yum install httpd -y
echo "Real Server 2" > /var/www/html/index.html 
service httpd start

Director

测试CIP和VIP在不同网段

yum install ipvsadm -y
ifconfig eth1:0 192.168.12.111/32 up
echo "1" > /proc/sys/net/ipv4/ip_forward
ipvsadm -A -t 192.168.12.111:http -s rr
ipvsadm -a -t 192.168.12.111:http -r 10.10.10.51:http -m
ipvsadm -a -t 192.168.12.111:http -r 10.10.10.52:http -m

浏览器打开http://192.168.12.111,按CRTL+F5刷新,查看效果

测试CIP和VIP在相同网段

ifconfig eth0:0 10.10.10.111/32 up
ipvsadm -A -t 10.10.10.111:80 -s rr 
ipvsadm -a -t 10.10.10.111:80 -r 10.10.10.51 -m
ipvsadm -a -t 10.10.10.111:80 -r 10.10.10.52 -m

通过tcpdump tcp port 80 发现RS可以接收到请求包,但是返回数据直接通过ARP请求发送给CLIENT,造成同网段下数据无法通过Director修改IP包后在返回给CLIENT。请求失败。

real server手动指定Client路由到Director

route add -host 10.10.10.147 gw 10.10.10.111

浏览器打开http://10.10.10.111,按CRTL+F5刷新,查看效果

时间: 2024-10-05 10:58:49

LVS NAT试验的相关文章

linux lvs集群nat模式(比上一篇的lvs nat实用)

这是一篇以apcache服务为例介绍lvs的nat模式配合keepalived实现的方案.实验拓扑图如下所示,虚线上面的大图可以看成是虚线下面"服务器群"的放大版: 本实验共用到4台linux虚拟服务器,其中两台rhel5.6作为主从HA(keepalived)服务器,另外两台rhel4.6模拟Apache服务器--用两台Apache服务器模拟多台Apache服务器. 实验原理是,用Apache服务器为代表模拟实际用到的服务器,用两台Apache模拟多台Apache,所有的Apache

负载均衡集群介绍 LVS介绍 LVS调度算法 LVS NAT模式搭建

一.负载均衡集群介绍二.LVS介绍LVS NAT模式使用NAT模式访问量不能太大,一般就是十几台或者十台以下在NAT模式中,只有分发器需要配置一个公网IP,然后分发器和rs之前只需要设定内网IP即可LVS IP Tunnel模式在Load Balancer 和 Real Server之间建立一个虚拟隧道叫做IP Tunnel,实现原理实际上是更改了数据包的目的IP,客户端请求分发器,分发器收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上,rs接收数据包后

lVS(nat模式)+keepalived搭建

关于网上lvs+keepalived的文章很多,但是多数都是DR模式的方案,对于 nat模式的并不多见,因此,在此写一份nat模式的文章,仅供分享也当笔记保存. 网络拓扑结构: 现在的Linux系统内核都是支持lvs的,所以我们直接可以用yum安装ipvsadm yum 源的替换,将系统的yum源替换成163的yum源 [[email protected] ~]# cd /etc/yum.repos.d/ [[email protected] yum.repos.d]# ls centos-16

LVS NAT模式搭建

准备工作 1.设备分配 192.168.137.100          LB Server(另一块公网网卡:192.168.138.100) 192.168.137.150          Server01(网关:192.168.137.100) 192.168.137.200          Server02(网关:192.168.137.100) 注:完成所有准备工作后调整设备网关. 2.关闭所有设备防火墙 systemctl stop firewalld systemctl disa

lvs nat搭建

生产环境网站离不开负载均衡.高可用性这样的字眼,不用解释便知道其中的意义与重要性.高可用性可以用keepalived实现,负载均衡可以用lvs或者nginx实现,二者的区别是lvs基于网络层,nginx基于应用层或者基于浏览器.lvs有3中实现方式,分别是nat.dr.tunel(隧道),三者大体相似,这里介绍nat模式,本文也没用介绍keepalived,以后有时间再写. 实验环境:使用vmware虚拟出4台linux,有一台作为client(rhel4.6),其中两台作为realserver

LVS NAT 模型配置实例

LVS 负载均衡 一.系统环境: 系统:Centos 6.5_64位 二.Director和Real Server的配置部署: 1台director server:VIP/外网ip:192.168.121.141 内网ip:172.16.2.31 2台real server:172.16.2.21       172.16.2.24  并且需要设置内网网关为director的内网ip:172.16.2.31 director server 2块网卡配置: 一块172.16.2.31 网卡为桥接模

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡

一.系统环境 实验拓扑: 实验环境: Vmware 9.01 + Windows 8 x64 企业版+8G内存 虚拟机步骤: 1.安装一台CentOS 6.3 x64主机,内存为1GB,网络为NAT模式,注意检查Vmware中EDIT菜单下Virtual Network Editor中VMnet8 2. 加电,安装系统.基础知识了,不再多说,注意:选择英文而不要选择中文,选择是Basic Server模式,系统名称:LVS-MASTER 3.安装系统后,用root用户登录进去,执行 ifconf

Vmware虚拟机配置LVS/NAT模式遇到的坑。

这两天在研究LVS的负载均衡,先从最简单的LVS/NAT模式开始入手. 最后配置完之后能够相互之间Ping通,并且能够直接访问real服务器提供的web服务,而且防火墙也已经关闭了. 但是通过访问LVS服务器死活访问不了Real服务器,利用tcpdump和iftop监控软件查看了一下,发现握手出现的问题! 先说一下用于测试LVS/NAT模式的一些配置信息吧. [真实] PC的网络: 外网IP:xxx.xxx.xxx.xxx这个是运营商动态分配给我的一个公网IP. 内网IP:192.168.123

LVS NAT 配置

LVS NAT 配置 架构图: 架构说明: Vmware上实现,一共需要3台虚拟机.物理机模拟客户端,Director需要2个网卡,VIP接口网卡用桥接,DIP接口用仅主机.RS1,RS2,DIP不用跟物理机通信,也没有必要,所以用仅主机连接. Director主机配置 Director地址配置: VIP地址: 192.168.11.107 桥接,eth0 DIP地址: 192.168.93.133 仅主机,eth1 调度策略配置: ipvsadm -A -t 192.168.11.107:80