LB负载均衡集群 - NAT

前提:

客户机 : eth0   192.168.0.200       eth1  192.168.205.129

dir主机: eth0   192.168.0.166       eth1  192.168.205.128

rs1主机: eth0  192.168.0.207

rs2主机: eth0  192.168.0.208

rs1 和 rs2的网关是dir  192.168.0.166

常用的负载均衡开源软件有: nginx、lvs、keepalived 
商业的硬件负载设备: F5、Netscale

1. LB、LVS介绍LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群

LVS是一个实现负载均衡集群的开源软件项目 
LVS架构从逻辑上可分为调度层(Director)、server集群层(Real server)和共享存储层
LVS可分为三种工作模式:  ( dr模式参考这篇文章  http://os.51cto.com/art/201105/264303.htm    这篇介绍的还是挺详细的: http://www.it165.net/admin/html/201401/2248.html )

NAT(调度器将请求的目标ip即vip地址改为Real server的ip, 返回的数据包也经过调度器,调度器再把源地址修改为vip)

TUN(调度器将请求来的数据包封装加密通过ip隧道转发到后端的real server上,而real server会直接把数据返回给客户端,而不再经过调度器)
DR(调度器将请求来的数据包的目标mac地址改为real server的mac地址,返回的时候也不经过调度器,直接返回给客户端)

种IP:DIP(driector ip), VIP(virtual ip), RIP(Real IP). 其中DIP, RIP 为同一个网段,并且为私网IP, vip为对外提供服务的ip,Director, Real server上都设置vip
LVS的调度算法:轮叫调度(Round Robin)(简称rr) ,加权轮叫(Weighted Round Robin)(简称wrr),最少链接(least connection)(LC),加权最少链接(Weighted Least Connections)(WLC) 等等   (其他算法,参考 http://www.aminglinux.com/bbs/thread-7407-1-1.html)

2. LVS/NAT 配置
三台服务器一台作为director, 两台作为real server
Director 有一个外网ip (192.168.31.166) 和一个内网ip(192.168.21.166), 两个real server上只有内网ip(192.168.21.100)和(192.168.21.101) 并且需要把两个real server的内网网关设置为director的内网ip(192.168.21.166)
两个real server 上都安装httpd: yum install -y nginx
Director上安装ipvsadm  yum install -y  ipvsadm
Direcotr 上 vim /usr/local/sbin/lvs_nat.sh //增加:
[[email protected] ~]# vim /usr/local/sbin/lvs_nat.sh

#! /bin/bash
# director 服务器上开启路由转发功能:
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/eth0/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/eth1/send_redirects

# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.0.0/24  -j MASQUERADE
# director设置ipvsadm
IPVSADM=‘/sbin/ipvsadm‘
$IPVSADM -C
$IPVSADM -A -t 192.168.205.128:80 -s rr
$IPVSADM -a -t 192.168.205.128:80 -r 192.168.0.207:80 -m -w 1
$IPVSADM -a -t 192.168.205.128:80 -r 192.168.0.208:80 -m -w 1

直接运行这个脚本就可以完成lvs/nat的配置了: 
/bin/bash /usr/local/sbin/lvs_nat.sh

加n就可以看打开具体的ip是多少

rs1上

[email protected] ~]# ifdown eth0;ifup eth0;

rs2机器上

通RS1

通过浏览器测试两台机器上的web内容,为了区分开,我们可以把nginx的默认页修改一下:
rs1上: echo "111111master" >/usr/share/nginx/html/index.html
rs2上: echo "111111salve" >/usr/share/nginx/html/index.html

问题:

之前在发现一个问题就是在curl的时候一直在rs2上在curl的时候一直卡在那里。所以说一直不成功。后来在在群里人帮助下终于找到问题的所在。示默认网关的问题。

也就是rs1上默认网关有两个。删除一个即可。

route del default gw 192.168.0.1删掉这个默认网关

然后在dir上测试:

或者改变权重

[[email protected] ~]# vim  /usr/local/sbin/lvs_nat.sh

然后/bin/sh /usr/local/sbin/lvs_nat.sh

我找了另一台机器(也就是第四台机器客户机)

客户机 : eth0   192.168.0.200       eth1  192.168.205.129

dir主机: eth0   192.168.0.166       eth1  192.168.205.128

rs1主机: eth0  192.168.0.207

rs2主机: eth0  192.168.0.208

第四台机器测试:

时间: 2024-10-25 23:57:28

LB负载均衡集群 - NAT的相关文章

centos LB负载均衡集群 第三十三节课

centos   LB负载均衡集群   第三十三节课 上半节课 下半节课 f

Haproxy做LB负载均衡集群的搭建和配置,可以通过web页面监控web服务器的运行状态

HAProxy提供高可用性.负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费.快速并且可靠的一种解决方案.HAProxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理. 实验(一) 实验目的:使用Haproxy做负载均衡集群(七层) 实验环境准备: 客户端  IP地址:1.1.1.1 主机名waiwang web1   IP地址:1.1.1.10 主机名:localhost web2   IP地址:1.1.1.20 主机名:localhost 配置HA

LB负载均衡集群--LVS

LB集群: LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群.常用的负载均衡开源软件有nginx.lvs.keepalived ,商业的硬件负载设备F5.Netscale. LB集群架构: 当用户的请求过来时,会直接发到分发器(Director Server)上,然后它把用户的请求根据预先设置好的算法,智能均衡地分发到后端的真正服务器(real server)上.如果不同的机器,可能用户请求到的数据不一样,为了避免这样的情况发生,所以用到了共享存储,这样保证所有用户请求

LB负载均衡集群

常用的负载均衡开源软件有: nginx.lvs.keepalived 商业的硬件负载设备: F5.Netscale 1. LB.LVS介绍:LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群 LVS是一个实现负载均衡集群的开源软件项目 LVS架构从逻辑上可分为调度层(Director).server集群层(Real server)和共享存储层LVS可分为三种工作模式: NAT(调度器将请求的目标ip即vip地址改为Real server的ip, 返回的数据包也经过调度器,

LB负载均衡集群nginx(代理)

nginx负载均衡集群 实际上就是代理 环境说明: Nginx分发器:一个公网IP,一个内网IP RS1 只有一个内网ip RS2 只有内网ip #在nginx分发器上编辑文件 #nginx负载均衡有自动检测rs的机制,当rs有一台机器宕机,nginx就不会把请求发个给那台rs vim /usr/local/nginx/conf/vhosts/upstream.conf upstream aming {            # 引用upstream模块 aming别名 #      ip_ha

LB负载均衡集群之LVS(NAT)

NAT模式 调度过程IP包详细图: 原理请看:<LVS算法转载> 实验准备 三台机器 一台为负载均衡调度器director,两张网卡,一个外网(客户请求)192.168.134.141,一个内网192.168.143.136 两台真实服务器real server,一张网卡,内网192.168.143.130和192.168.143.134 真实服务器的网关设置为负载均衡器的内网IP 192.168.143.136 实验环境为虚拟机,所以先用nat模式下载需要的服务ipvsadm,nginx,然

【LVS】负载均衡集群NAT模式

LVS (Linux Virtual Server)是一种集群(Cluster)技术,采用IP负载均衡技术和基于内容请求分发技术.LVS可以实现LINUX平台下的简单负载均衡. 其中LVS/NAT是一种最简单的方式,所有的RealServer只需要将自己的网关指向Director即可. LVS负载均衡的NAT模式 一.实验准备 在VMware Workstation虚拟机环境下,准备三台服务器,一台作为director, 两台作为real server. 二.网络配置 director需要配置两

LB负载均衡集群之LVS(DR)

配置DR LVS工具ipvsadm 环境说明 四台机器: Director负载均衡调度器,网卡(公网IP,实验用nat)eth0:192.168.134.140 Vip:etho:0:192.168.134.150 Real server1真实机器.真实服务器,网卡(公网IP,实验用nat)eth0:192.168.134.137 Real server2真实机器.真实服务器,网卡(公网IP,实验用nat)eth0:192.168.134.138 Client 客户端 网卡(公网IP,实验用na

LB负载均衡集群 - DR

前提 dir   ip eth0 192.168.0.198 rs1   ip eth0 192.168.0.207 rs2   ip eth0192.168.0.208 客户端 192.168.0.200也就是第四台IP. 这三个网络都要看成是公网的IP 和之前的nat模式比较起来就是比较浪费公网的IP. 1.之前做了LB的NAT模式现在清空模式 dir主机上 [[email protected] ~]# ipvsadm -C[[email protected] ~]# ipvsadm -ln