LVS-NAT模式负载均衡的实现

LVS-NAT架构图解:

一.名词解释:

DS:Director Server,前端的LVS Server

RS:Real Server;后端的WebServer

VIP:外网, 172.16.31.50

DIP:内网,192.168.31.254

RS1:RIP 192.168.31.1

RS2:RIP 192.168.31.2

前端是一个Director Server,有两个网卡,一个是公网(面向互联网);一个是连接各RS

外部网络是桥接网卡,内部网络是内部网络网卡连接的;

后端是Real Server,尽可能使用私有地址,网关应指向DIP,将RS做成web服务器

二.LVS-NAT模型实现负载均衡的工作方式,

NAT模型其实就是通过网络地址转换来实现负载均衡的,它的工作方式几乎跟DNAT一模一样的,目前的DNAT只能转发到一个目标地址,早期的DNAT是可以将请求转发到多个目标的,在LVS出现之后就将此功能从DNAT种去掉了,下面来说说NAT模型的工作方式或者说NAT模型是怎么实现负载均衡的,根据上图,

1.客户端请求VIP(也可以说是CIP请求VIP);

2.Director Server 收到用户的请求后,发现源地址为CIP请求的目标地址为VIP,那么DorectorServer会认为用户请求的是一个集群服务,那么Director Server 会根据此前设定好的调度算法将用户请求负载给某台Real Server ,假如说此时Director Server 根据调度算法的结果会将请求分摊到Real Server 1上去,那么Director Server 会将用户的请求报文中的目标地址,从原来的VIP改为Real Server 1的IP,然后再转发给Real Server 1;

3.此时Real Server 1收到一个源地址为CIP目标地址为自己的请求,那么Real Server1处理好请求后会将一个源地址为自己目标地址为CIP的数据包通过Director Server 发出去;

4.当Driector Server收到一个源地址为RealServer 1 的IP 目标地址为CIP的数据包,此时Driector Server 会将源地址修改为VIP,然后再将数据包发送给用户;

三.LVS用户空间工具ipvsadm的使用方法

其实LVS的本身跟iptables很相似,而且连命令的使用格式都很相似,其实LVS是根据iptables的框架开发的,那么LVS的本身分成了两个部分,第一部分是工作在内核空间的一个IPVS的模块,其实LVS的功能都是IPVS模块实现的;第二部分是工作在用户空间的一个用来定义集群服务的一个工具ipvsadm, 这个工具的主要作用是将管理员定义的集群服务列表传送给工作在内核空间中的IPVS模块,下面来简单的介绍下ipvsadm命令的用法

1.定义集群服务类的

#ipvsadm

-A 添加一个集群服务

-D 删除一个集群服务

-E 修改一个集群服务

-t VIP:端口   定义集群服务的类型为TCP的某个端口

-u VIP:端口   定义集群服务的类型为UDP的某个端口

-f 防火墙标记  定义集群服务的类型为防火墙标记

-s 调度算法  指定集群服务的调度算法

2.定义集群节点类的

#ipvsadm

-a 添加一个节点到集群服务

-d 从集群服务中删除一个节点

-e 修改集群服务器中的节点

-r 节点IP:端口   定义节点的IP及类型

-m   定义为NAT模型

-g   定义为DR模型

-i   定义为TUN模型

-w 权重   定义服务器的权重

-p --persistent [timeout] 持久稳固的服务。这个选项的意思是来自同一个客
户的多次请求,将被同一台真实的服务器处理。timeout 的默认值为300 秒。

3.其他

#ipvsadm

-L 查看

-n --numeric       输出IP 地址和端口的数字形式

-c --connection   显示LVS 目前的连接 如:ipvsadm -L -c

--stats          显示统计信息

-C 清空所有规则

-S 保存规则

-R 恢复规则

四.配置IP地址:

1.LVS Server的IP配置:

VIP:

[[email protected] network-scripts]# cat ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"
HWADDR="08:00:27:85:86:F7"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=172.16.31.50
NETMASK=255.255.0.0
GATEWAY=172.16.0.1

DIP:

[[email protected] network-scripts]# cat ifcfg-eth1
DEVICE="eth1"
BOOTPROTO="static"
HWADDR="08:00:27:3F:47:E1"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.31.254
NETMASK=255.255.255.0
GATEWAY=172.16.0.1

2.Web Server服务器IP配置

Node1的web服务器IP设置:

[[email protected] network-scripts]# cat ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"
HWADDR="08:00:27:23:2F:87"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.31.1
NETMASK=255.255.0.0
GATEWAY=172.16.0.1

Node2的web服务器IP设置:

[[email protected] network-scripts]# cat ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"
HWADDR="08:00:27:E0:A1:67"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.31.2
NETMASK=255.255.255.0
GATEWAY=172.16.0.1

五.配置LVS Server启用转发功能

[[email protected] ~]# vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
[[email protected] ~]# sysctl -p
net.ipv4.ip_forward = 1
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route =0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
error: "net.bridge.bridge-nf-call-ip6tables"is an unknown key
error:"net.bridge.bridge-nf-call-iptables" is an unknown key
error:"net.bridge.bridge-nf-call-arptables" is an unknown key
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296

服务器之间的时间尽量一致

六.启动默认http服务器

Node1和Node2:

[[email protected] ~]# service httpd start

Starting httpd:                                           [  OK  ]

[[email protected] ~]# service httpd start

Starting httpd:                                            [  OK  ]

设置好测试网页:

[[email protected] ~]# echo "node1.stu31.com"> /var/www/html/index.html

[[email protected] ~]# echo"node2.stu31.com" > /var/www/html/index.html

七.启用LVS-NAT模式的负载均衡

1.采用RR调度方法:

[[email protected] ~]# ipvsadm -A -t 172.16.31.50:80-s rr
[[email protected] ~]# ipvsadm -a -t 172.16.31.50:80-r 192.168.31.1 -m
[[email protected] ~]# ipvsadm -a -t 172.16.31.50:80-r 192.168.31.2 –m

2.浏览器测试:

多刷新几次可以观察出可以轮流查询的!

3.采用WRR加权调度算法:

[[email protected] ~]# ipvsadm -E -t 172.16.31.50:80-s wrr
[[email protected] ~]# ipvsadm -e -t 172.16.31.50:80-r 192.168.31.2 -m -w 2

浏览器测试:

可以看出前两次查询都是node2服务器返回的结果

[[email protected] ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
 -> RemoteAddress:Port          Forward Weight ActiveConn InActConn
TCP 172.16.31.50:80 wrr
 -> 192.168.31.1:80             Masq    1      0         1        
 -> 192.168.31.2:80             Masq    2      0         3

我们将其中一台web服务器关闭

[[email protected] ~]# service httpd stop
Stopping httpd:                                            [  OK  ]

浏览器刷新测试:

[[email protected] ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
 -> RemoteAddress:Port          Forward Weight ActiveConn InActConn
TCP 172.16.31.50:80 wrr
 -> 192.168.31.1:80             Masq    1      0         2        
 -> 192.168.31.2:80             Masq    2      0         9

由此可以知道LVS Server无法监控后端服务器的健康状态。

时间: 2024-10-19 04:34:49

LVS-NAT模式负载均衡的实现的相关文章

LVS DR模式 负载均衡服务搭建

LVS 负载均衡 最近在研究服务器负载均衡,阅读了网上的一些资料,发现主要的软件负载均衡方案有nginx(针对HTTP服务的负载均衡),LVS(针对IP层,MAC层的负载均衡).LVS模式工作在网络层,且由内核实现负载转发,效率要比nginx高.     LVS负载均衡包含三种模式: 1. NAT模式(类似路由器,实现外网内网地址映射,负载均衡服务器修改请求包的源以及目的MAC地址和IP地址,发送给实际服务器:负载均衡服务器,修改响应包的源以及目的MAC地址和IP地址,发送给客户端.请求和响应报

LVS DR模式负载均衡的搭建(单网段)

LVS DR模式负载均衡的搭建(单网段) 实验需要五台虚拟机,都是centos7 客户端 路由器 lvs服务器 172.22.144.188 1接口172.22.144.17 2接口192.168.49.5 172.22.144.17 192.168.49.5 rs1服务器 rs2服务器 192.168.49.3 192.168.49.4 **客户端的配置** vim /etc/sysconfig/nerwork-scripts/ifcfg-ens33 DEVICE=ens33 NAME=ens

LVS/NAT + keepalived负载均衡实现

一.keepalived简介 keepalived是分布式部署解决系统高可用的软件,结合lvs(LinuxVirtual Server)使用,解决单机宕机的问题.keepalived是一个基于VRRP协议来实现IPVS的高可用的解决方案.对于LVS负载均衡来说,如果前端的调度器direct发生故障,则后端的realserver是无法接受请求并响应的.因此,保证前端direct的高可用性是非常关键的,否则后端的服务器是无法进行服务的.而我们的keepalived就可以用来解决单点故障(如LVS的前

centos 7.3 LVS的NAT模式负载均衡实操

一.LB集群原理 1.实现手段 硬件:F5负载均衡器 软件:LVS(4层,网络层),Nginx(7层,应用层) 2.负载均衡架构图 说明: LVS集群使用三层架构 第一层:负载均衡层(Load Balancer) 位于整个集群系统的最前端,由一台或多台负载调度器(Director Server,以下简称dir)组成. dir的作用类似一个路由器,它含有为完成LVS功能所设定的路由表,通过这些路由表把用户的请求分发给服务器群组层的应用服务器(Real Server) ps:客户认为服务是来自一个虚

lvs DR模式负载均衡实操

ps:做 dr 模式 之前,先把之前做过的操作清空掉 1.ipvsadm -ln 查看规则 2.ipvsadm -C 清空规则 3.ipvsadm -ln 确认 4.iptables -t nat -F: 清空iptables的nat规则 5.master和slave把网卡所对应的网关(GATEWAY)改回来 vim /etc/sysconfig/network-scripts/ifcfg-ens33 6.dr用不到ens37这个网卡(192.168.56.128) ifdown ens37 [

CentOS下LVS DR模式负载均衡配置详解

一安装LVS准备: 1.准备4台Centos 6.2 x86_64 注:本实验关闭 SELinux和IPtables防火墙. 管理IP地址 角色 备注 192.168.1.101 LVS主调度器(Master Director) 对外提供服务的VIP为192.168.1.180 192.168.1.114 LVS从调度器(Backup Director) 平时可以作为RS(真实服务器使用) 192.168.1.104 RS1(真实服务器)   192.168.1.103 RS2(真实服务器)  

CentOS 6.3下部署LVS(NAT模式)+keepalived实现高性能高可用负载均衡

一.简介 VS/NAT原理图: 二.系统环境 实验拓扑: 系统平台:CentOS 6.3 Kernel:2.6.32-279.el6.i686 LVS版本:ipvsadm-1.26 keepalived版本:keepalived-1.2.4 三.安装 0.安装LVS前系统需要安装popt-static,kernel-devel,make,gcc,openssl-devel,lftp,libnl*,popt* 1.在两台Director Server上分别配置LVS+Keepalived LVS

18.6 负载均衡集群介绍;18.7 LVS介绍;18.9 LVS NAT模式搭建(上);18.10 LVS NAT模式搭建(下)

扩展: lvs 三种模式详解 http://www.it165.net/admin/html/201401/2248.html lvs几种算法 http://www.aminglinux.com/bbs/thread-7407-1-1.html 关于arp_ignore和 arp_announce http://www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html lvs原理相关的   http://blog.csdn.net/pi9nc/

负载均衡之LVS/NAT模式

1.LVS.NAT简介 LVS 是Linux Virtual Server的简称,在实际环境中经常作为B/S结构的网络应用中的负载均衡器来使用,工作在7层网络模型中的网络层,也就是通常说的IP层,由于数据的处理是在Linux内核态完成的,比起在第七层工作的负载均衡设备来说,理论上性能要高一些. NAT 是Network AddressTranslation,网络地址转换的简称,借助于NAT,私有(保留)地址的"内部"网络通过路由器发送数据包时,私有地址被转换成合法的IP地址,一个局域网

负载均衡集群介绍、LVS介绍及调度算法、LVS NAT模式搭建

负载均衡集群介绍 实现负载均衡集群的软件有:LVS.keepalived.Nginx.haproxy等.其中LVS属于四层(网络OSI模型):Nginx 属于七层:haproxy既可以认为是四层,也可以当作是七层使用. keepalived 的负载均衡功能其实就是lvs LVS.haproxy这种四层负载均衡可以分发除80端口以外的通信,如mysql-3306:而nginx 仅仅支持http,https,mail. 相对来说,LVS 这种四层的更加稳定,能承受更多的请求,而nginx 这种七层的