LVS-NAT演示

LVS-NAT演示:

测试环境:

OS:rhel6.4

Director:

Vip:192.168.10.118

Dip:192.168.20.1

RS1: Rip:192.168.20.11

RS2: Rip:192.168.20.12

PS:Director上有两块网卡,一块是桥接网络 eth0(公网地址),另一块使用内部网络 eth1;RS1和RS2上都只有一块网卡都使用的是内部网络 eth0;为了避免其他因素的影响需要关闭防火墙和selinux;

1.在Director上看内核是否已经支持ipvs模块

#grep -E -i "ipvs|IP_VS" /boot/config-2.6.32-358.el6.x86_64

2.在Director上安装ipvsadm

#mount -r /dev/cdrom /media/cdrom

#vim /etc/yum.repo.d/server.repo

[Base]

name=server

baseurl=file:///media/cdrom/Server

enable=1

gpgcheck=0

#yum -y install ipvsadm

PS:如果系统用的是其他的版本没有自带ipvsadm的rpm包,可以去 www.rpmfind.net 上下载;

3.在Director上配置启用eth1网卡(eth0是使用之前的配置,这里不再修改)

#ifconfig eth1 192.168.20.1/24 up

#ifconfig                   ###查看eth1是否已经启用并配置成功

4.在RS1和RS2上安装httpd服务

#mount -r /dev/cdrom /media/cdrom

#vim /etc/yum.repo.d/server.repo

[Base]

name=server

baseurl=file:///media/cdrom/Server

enable=1

gpgcheck=0

#yum -y install httpd

#echo "<h1>web 1 server</h1>" > /var/www/html/index.html    ###RS1

#echo "<h1>web 2 server</h1>" > /var/www/html/index.html    ###RS2

5.在RS1上配置Rip(eth0)

#ifconfig eth0 192.168.20.11/24

#route add default gw 192.168.20.1

#service httpd restart

6.在RS2上配置Rip(eth0)

#ifconfig eth0 192.168.20.12/24

#route add default gw 192.168.20.1

#service httpd restart

7.在RS1和RS2上测试看是否能ping通网关

#ping 192.168.20.1

8.在Director上看是否能ping同RS1和RS2以及是否能访问web服务

#ping 192.168.20.11

#ping 192.168.20.12

#curl http://192.168.20.11

#curl http://192.168.20.12

9.在Director上打开路由转发功能

#vim /etc/sysctl.conf

net.ipv4_forward=1

#sysctl -p

10.在Director上配置Vip

#ifconfig eth0:0 192.168.10.118

11.在Director上配置集群服务

#ipvsadm -A -t 192.168.10.118:80 -s rr     ###定义一个集群服务

#ipvsadm -a -t 192.168.10.118:80 -r 192.168.20.11 -m  ###向指定的集群服务里添加RS

#ipvsadm -a -t 192.168.10.118:80 -r 192.168.20.12 -m

#ipvsadm -L -n   ###查看集群配置信息

12.在宿主机上访问 192.168.10.118 看是否能看到测试页面及使用的是否为轮询的方式

13.在RS上查看httpd的访问日志能看到Cip的真实地址

14.修改一个已经定义的集群使其负载调度算法为wrr

#ipvsadm -E -t 192.168.10.118:80 -s wrr

#ipvsadm -e -t 192.168.10.118:80 -r 192.168.20.11 -m -w 3

#ipvsadm -e -t 192.168.10.118:80 -r 192.168.20.12 -m -w 1

15.再次进行访问测试

16.保存ipvs规则到文件中

#ipvsadm-save   |  service ipvsadm save

17.提供在Director上配置服务脚本:

#vim /etc/rc.d/init.d/lvs-nat

#!/bin/bash## chkconfig: - 88 12# description: LVS script for VS/NAT#  . /etc/rc.d/init.d/functions#Vip,Dip,Rip Setting

  VIP=192.168.10.118  DIP=192.168.20.1  RIP1=192.168.20.11  RIP2=192.168.20.12

#install  ipvsadm   /bin/umount /dev/cdrom   /bin/mount -r /dev/cdrom  /media/cdrom

   /bin/touch  /etc/yum.repos.d/server.repo   echo -e "[Base]\nbaseurl=file:///medai/cdrom/Server\nenable=1\ngpgcheck=0" > /etc/yum.repos.d/server.repo

  /usr/bin/yum -y remove ipvsadm  /usr/bin/yum -y install ipvsadm

# start | stop  case "$1" in       start)        # set Dip  /sbin/ifconfig eth1 $DIP netmask 255.255.255.0 up       # set Vip  /sbin/ifconfig eth0:0 $VIP netmask 255.255.255.0 up

# Since this is the Director we must be able to forward packets  echo 1 > /proc/sys/net/ipv4/ip_forward

# Clear all iptables rules.  /sbin/iptables -F

# Reset iptables counters.  /sbin/iptables -Z

# Clear all ipvsadm rules/services.  /sbin/ipvsadm -C

# Add an IP virtual service for VIP 192.168.10.118 port 80# In this recipe, we will use the round-robin scheduling method. # In production, however, you should use a weighted, dynamic scheduling method.   /sbin/ipvsadm -A -t $VIP:80 -s rr

# Now direct packets for this VIP to# the real server IP (RIP) inside the cluster  /sbin/ipvsadm -a -t $VIP:80 -r $RIP1 -m  /sbin/ipvsadm -a -t $VIP:80 -r $RIP2 -m     /bin/touch /var/lock/subsys/ipvsadm.lock;;

stop)# Stop forwarding packets  echo 0 > /proc/sys/net/ipv4/ip_forward

# Reset ipvsadm  /sbin/ipvsadm -C

# Bring down the VIP interface  ifconfig eth0:0 down     rm -rf /var/lock/subsys/ipvsadm.lock;;

status)  [ -e /var/lock/subsys/ipvsadm.lock ] && echo "ipvs is running..." || echo "ipvsadm is stopped...";;*)  echo "Usage: $0 {start|stop}";;esac

18.赋予执行权限

#chmod +x /etc/rc.d/init.d/lvs-nat

#chkconfig --add lvs-nat

19.启动服务

#service lvs-nat start

时间: 2024-07-30 15:21:31

LVS-NAT演示的相关文章

linux lvs集群nat模式(比上一篇的lvs nat实用)

这是一篇以apcache服务为例介绍lvs的nat模式配合keepalived实现的方案.实验拓扑图如下所示,虚线上面的大图可以看成是虚线下面"服务器群"的放大版: 本实验共用到4台linux虚拟服务器,其中两台rhel5.6作为主从HA(keepalived)服务器,另外两台rhel4.6模拟Apache服务器--用两台Apache服务器模拟多台Apache服务器. 实验原理是,用Apache服务器为代表模拟实际用到的服务器,用两台Apache模拟多台Apache,所有的Apache

lVS(nat模式)+keepalived搭建

关于网上lvs+keepalived的文章很多,但是多数都是DR模式的方案,对于 nat模式的并不多见,因此,在此写一份nat模式的文章,仅供分享也当笔记保存. 网络拓扑结构: 现在的Linux系统内核都是支持lvs的,所以我们直接可以用yum安装ipvsadm yum 源的替换,将系统的yum源替换成163的yum源 [[email protected] ~]# cd /etc/yum.repos.d/ [[email protected] yum.repos.d]# ls centos-16

LVS NAT模式搭建

准备工作 1.设备分配 192.168.137.100          LB Server(另一块公网网卡:192.168.138.100) 192.168.137.150          Server01(网关:192.168.137.100) 192.168.137.200          Server02(网关:192.168.137.100) 注:完成所有准备工作后调整设备网关. 2.关闭所有设备防火墙 systemctl stop firewalld systemctl disa

lvs nat搭建

生产环境网站离不开负载均衡.高可用性这样的字眼,不用解释便知道其中的意义与重要性.高可用性可以用keepalived实现,负载均衡可以用lvs或者nginx实现,二者的区别是lvs基于网络层,nginx基于应用层或者基于浏览器.lvs有3中实现方式,分别是nat.dr.tunel(隧道),三者大体相似,这里介绍nat模式,本文也没用介绍keepalived,以后有时间再写. 实验环境:使用vmware虚拟出4台linux,有一台作为client(rhel4.6),其中两台作为realserver

LVS NAT 模型配置实例

LVS 负载均衡 一.系统环境: 系统:Centos 6.5_64位 二.Director和Real Server的配置部署: 1台director server:VIP/外网ip:192.168.121.141 内网ip:172.16.2.31 2台real server:172.16.2.21       172.16.2.24  并且需要设置内网网关为director的内网ip:172.16.2.31 director server 2块网卡配置: 一块172.16.2.31 网卡为桥接模

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡

一.系统环境 实验拓扑: 实验环境: Vmware 9.01 + Windows 8 x64 企业版+8G内存 虚拟机步骤: 1.安装一台CentOS 6.3 x64主机,内存为1GB,网络为NAT模式,注意检查Vmware中EDIT菜单下Virtual Network Editor中VMnet8 2. 加电,安装系统.基础知识了,不再多说,注意:选择英文而不要选择中文,选择是Basic Server模式,系统名称:LVS-MASTER 3.安装系统后,用root用户登录进去,执行 ifconf

Vmware虚拟机配置LVS/NAT模式遇到的坑。

这两天在研究LVS的负载均衡,先从最简单的LVS/NAT模式开始入手. 最后配置完之后能够相互之间Ping通,并且能够直接访问real服务器提供的web服务,而且防火墙也已经关闭了. 但是通过访问LVS服务器死活访问不了Real服务器,利用tcpdump和iftop监控软件查看了一下,发现握手出现的问题! 先说一下用于测试LVS/NAT模式的一些配置信息吧. [真实] PC的网络: 外网IP:xxx.xxx.xxx.xxx这个是运营商动态分配给我的一个公网IP. 内网IP:192.168.123

LVS NAT 配置

LVS NAT 配置 架构图: 架构说明: Vmware上实现,一共需要3台虚拟机.物理机模拟客户端,Director需要2个网卡,VIP接口网卡用桥接,DIP接口用仅主机.RS1,RS2,DIP不用跟物理机通信,也没有必要,所以用仅主机连接. Director主机配置 Director地址配置: VIP地址: 192.168.11.107 桥接,eth0 DIP地址: 192.168.93.133 仅主机,eth1 调度策略配置: ipvsadm -A -t 192.168.11.107:80

CentOS 6.3下部署LVS(NAT模式)+keepalived实现高性能高可用负载均衡

一.简介 VS/NAT原理图: 二.系统环境 实验拓扑: 系统平台:CentOS 6.3 Kernel:2.6.32-279.el6.i686 LVS版本:ipvsadm-1.26 keepalived版本:keepalived-1.2.4 三.安装 0.安装LVS前系统需要安装popt-static,kernel-devel,make,gcc,openssl-devel,lftp,libnl*,popt* 1.在两台Director Server上分别配置LVS+Keepalived LVS

使用LVS+NAT搭建集群实现负载均衡

使用LVS+NAT搭建集群实现负载均衡 LVS集群简介    计算机集群简称集群是一种计算机系统,它通过一组松散集成的计算机软件或硬件连接起来高度紧密地协作完成计算工作.在某种意义上,他们可以被看作是一台计算机.集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式.集群计算机通常用来改进单个计算机的计算速度和/或可靠性.一般情况下集群计算机比单个计算机,比如工作站或超级计算机性能价格比要高得多        LVS集群分布图   集群有三种类型: