LVS nat 是否需要借助iptables 的snat实现负载均衡

先贴图:

这个图用的cisco的路由器。事实结果是不用做snat。

然而lvs的nat 跟这个模型很相似,有人说lvs nat 是多组的dnat,现在我来证实一下

lvs 是否需要开启iptables  snat 来帮助realserver 把数据包做转换。

还是lvs自身来转换数据包结构。

实验所需:

lvs配置的关键项我贴出来,我用的keepalived 配置,方便写而且能进行主机存活监测

[[email protected] ~]# cat /proc/sys/net/ipv4/ip_forward 
1
[[email protected] ~]# getenforce 
Disabled
#keepalived 配置
[[email protected] ~]# cat /etc/keepalived/keepalived.conf 
global_defs {
   notification_email {
     [email protected]
   }
   notification_email_from [email protected]
   router_id LVS_DEVEL
}

vrrp_instance VI_1 {
    state MASTER
    interface eth1
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.2.180
    }
}

virtual_server 192.168.2.180 80 {
    delay_loop 6
    lb_algo rr
    lb_kind NAT
    nat_mask 255.255.255.0
    persistence_timeout 5
    protocol TCP

    real_server 192.168.156.128 80 {
       weight 1
       TCP_CHECK { 
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }

    real_server 192.168.156.130 80 {
       weight 10
       TCP_CHECK {  
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }

}

上述配置很简单,下面开始验证。

第一步:在web1  web2  关闭默认路由。

[[email protected] ~]# route 
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
192.168.156.0   *               255.255.255.0   U     0      0        0 eth0
link-local      *               255.255.0.0     U     1002   0        0 eth0

lvs主机的iptable 规则设置空的(即不开启snat)或者关闭iptables。

用浏览器访问 http://192.168.2.180

会出现一直卡在哪里不动,我们查看

[[email protected] ~]# ipvsadm -lnc
IPVS connection entries
pro expire state       source             virtual            destination
TCP 00:55  SYN_RECV    192.168.2.18:57706 192.168.2.180:80   192.168.156.128:80
TCP 00:52  NONE        192.168.2.18:0     192.168.2.180:80   192.168.156.128:80
TCP 00:55  SYN_RECV    192.168.2.18:57707 192.168.2.180:80   192.168.156.128:80

了解tcp三次握手的同学都知道,这个处于recv的阶段,是destination 没有回复,所以处于这个状态。

我们分析一下数据包的流向。

pc 192.168.2.18

lvs 192.168.2.182  vip 192.168.2.180

realserver 192.168.156.128

数据包开始是  sip:192.168.2.18 dip:192.168.2.180

到达lvs ,lvs 发现是请求的vip,然后按照规则把数据包转换为  sip:192.168.2.18 dip:192.168.156.128

然后readserver 接收到数据包 解封装。最后处理完成,重新把包发回去,此时数据包结构是sip:192.168.156.128 dip:192.168.2.18.问题来了,此时我们的路由表(见上面的route),表项没有到192.168.2.0网段的路由,这时候数据包会发布出去,直接丢弃的。所以出现了 SYN_RECV.

那么我们如果把这个包送能到lvs,是否可以正常访问呢?下面来验证

第二步:在web 1 web2 开启默认路由,路由默认网关指向lvs内网口192.168.156.148;

注意此时lvs 还是没有开启iptables snat

[[email protected] ~]# route 
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
192.168.156.0   *               255.255.255.0   U     0      0        0 eth0
link-local      *               255.255.0.0     U     1002   0        0 eth0
default         192.168.156.148 0.0.0.0         UG    0      0        0 eth0

这个时候,还是上述过程到realserver 回数据包的时候,sip:192.168.156.128 dip:192.168.2.18

此时路由表项有默认路由,会直接把这个数据包丢给192.168.156.148(lvs)。

用浏览器访问 http://192.168.2.180

发现此时可以正常访问网站了。

在web1抓包分析,看到的数据包

15:27:31.154624 IP 192.168.2.18.56784 > 192.168.156.128.http: Flags [.], ack 1, win 16425, length 0
15:27:31.156401 IP 192.168.2.18.56784 > 192.168.156.128.http: Flags [P.], seq 1:458, ack 1, win 16425, length 457
15:27:31.156478 IP 192.168.156.128.http > 192.168.2.18.56784: Flags [.], ack 458, win 490, length 0
15:27:31.157290 IP 192.168.156.128.http > 192.168.2.18.56784: Flags [P.], seq 1:149, ack 458, win 490, length 148
15:27:31.157415 IP 192.168.156.128.http > 192.168.2.18.56784: Flags [F.], seq 149, ack 458, win 490, length 0
15:27:31.157832 IP 192.168.2.18.56784 > 192.168.156.128.http: Flags [.], ack 150, win 16388, length 0
15:27:31.158295 IP 192.168.2.18.56784 > 192.168.156.128.http: Flags [F.], seq 458, ack 150, win 16388, length 0
15:27:31.158311 IP 192.168.156.128.http > 192.168.2.18.56784: Flags [.], ack 459, win 490, length 0

整个数据包流向应该是:

数据包一开始是  sip:192.168.2.18 dip:192.168.2.180
到达lvs ,lvs 发现是请求的vip,然后按照规则把数据包转换为  sip:192.168.2.18 dip:192.168.156.128
然
后readserver 接收到数据包 解封装。最后处理完成,重新把包发回去,此时数据包结构是sip:192.168.156.128 
dip:192.168.2.18. 数据包到lvs后lvs 把数据包修改为sip:192.168.2.180 dip:192.168.2.18

此时客户机会接受这个数据包的。因为请求数据包ip是对的。

但此时lvs没有开启snat的,也就是这个数据包的转换,不需要借助iptables的,而是lvs自己本身完成的。类似于多组的dnat。

个人总结:很多论坛的资料都是个人观点,缺乏严谨性。cisco和linux 很多东西是相通的。

时间: 2024-08-22 14:55:30

LVS nat 是否需要借助iptables 的snat实现负载均衡的相关文章

.Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列导航栏

.Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(一) .Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(二) .Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(三) .Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(四)

LVS四层 VS Nginx七层反代(负载均衡)

1.场景: 最近不少朋友聊天谈到面试总是问到LVS四层反代和Nginx七层反代,有点不知所措. 负载均衡可以将用户的请求分发到 web集群的某台机器,反向代理也是实现了这个功能.如果后端是一台服务器就叫反向代理,如果有多台就是负载均衡.反向代理才能实现负载均衡 负载均衡是做反向代理的目的之一. 2.博主则探讨一下四层反代和的七层反代的区别(三层负载均衡不探讨),如有不足,请指出. 3.问到LVS四层.七层反代(负载均衡),则可以通过上面几个方式谈: 3.1)技术原理 3.2)优缺点 3.3)安全

.Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(三)

.Net 站点使用Redis存储Session信息,借助Redis实现多个站点公用Session信息 1.新建一个web项目,我新建的是一个空的MVC的项目. 新建好之后添加Home控制器,新建Index Action方法和View视图文件. 2.使用NuGet添加RedisSessionStateProvider这个引用. 安装完成之后会自动添加三个引用: Microsoft.Web.RedisSessionStateProvider StackExchange.Redis.StrongNam

.Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(一)

说明 1.首先说明一下实现负载均衡的过程. 第一步:新建两个或多个站点(建站过程略). 第二步:两个或多个站点之间实现Session的共享. 第三步:多个站点通过负载均衡器实现负载均衡. 2.博客内容主线 1.Redis的安装. 2..Net通过Redis实现多个站点Session共享的过程. 3.Nginx的安装和配置实现负载均衡. 4.使用Fiddler模仿域名,测试负载均衡是否成功实现. 前言 1.站点之间的Session共享使用Redis来实现 2.负载均衡使用Nginx来实现 以下是关

.Net 站点在Windows环境借助Nginx和Redis实现负载均衡系列(二)

Redis的安装和使用 1.Redis的下载链接:https://github.com/ServiceStack/redis-windows 下载的压缩包redis-windows-master.zip 解压之后找到->downloads文件夹,选择最新的安装包解压.我这里最新的安装包是redis64-3.0.501.zip. 安装包在解压就可以看到下面图片中的文件 Redis的使用和安装已经有巨人给我们铺好了路,下面直接给出博文的地址,感谢这两个博主,从这两个系列里面学到了很多. 1. htt

负载均衡之iptables/nat模式

Iptables和NAT 结合,也能够实现简单的负载均衡. 简介 iptables的前身叫ipfirewall (内核1.x时代),这是一个作者从freeBSD上移植过来的,能够工作在内核当中的,对数据包进行检测的一款简易访问控制工具.但是ipfirewall工作功能极其有限(它需要将所有的规则都放进内核当中,这样规则才能够运行起来,而放进内核,这个做法一般是极其困难的).当内核发展到2.x系列的时候,软件更名为ipchains,它可以定义多条规则,将他们串起来,共同发挥作用,而现在,它叫做ip

借助LVS+Keepalived实现负载均衡(转)

原文:http://www.cnblogs.com/edisonchou/p/4281978.html 一.负载均衡:必不可少的基础手段 1.1 找更多的牛来拉车吧 当前大多数的互联网系统都使用了服务器集群技术,集群即将相同服务部署在多台服务器上构成一个集群整体对外提供服务,这些集群可以是Web应用服务器集群,也可以是数据库服务器集群,还可以是分布式缓存服务器集群等等. 古人有云:当一头牛拉不动车的时候,不要去寻找一头更强壮的牛,而是用两头牛来拉车. 在实际应用中,在Web服务器集群之前总会有一

借助LVS+Keepalived实现负载均衡

一.负载均衡:必不可少的基础手段 1.1 找更多的牛来拉车吧 当前大多数的互联网系统都使用了服务器集群技术,集群即将相同服务部署在多台服务器上构成一个集群整体对外提供服务,这些集群可以是Web应用服务器集群,也可以是数据库服务器集群,还可以是分布式缓存服务器集群等等. 古人有云:当一头牛拉不动车的时候,不要去寻找一头更强壮的牛,而是用两头牛来拉车. 在实际应用中,在Web服务器集群之前总会有一台负载均衡服务器,负载均衡设备的任务就是作为Web服务器流量的入口,挑选最合适的一台Web服务器,将客户

【大型网站技术实践】初级篇:借助LVS+Keepalived实现负载均衡

一.负载均衡:必不可少的基础手段 1.1 找更多的牛来拉车吧 当前大多数的互联网系统都使用了服务器集群技术,集群即将相同服务部署在多台服务器上构成一个集群整体对外提供服务,这些集群可以是Web应用服务器集群,也可以是数据库服务器集群,还可以是分布式缓存服务器集群等等. 古人有云:当一头牛拉不动车的时候,不要去寻找一头更强壮的牛,而是用两头牛来拉车. 在实际应用中,在Web服务器集群之前总会有一台负载均衡服务器,负载均衡设备的任务就是作为Web服务器流量的入口,挑选最合适的一台Web服务器,将客户