lvs-dr 原理与配置

Lvs-dr 原理与配置

目录

1、ARP介绍

2、DR模式数据包请求响应流程

3、配置过程

4、总结

1、ARP协议介绍

功能:局域网内,根据IP地址获取MAC地址。

互联网上面,每一台主机都有一个32位的IP地址,但是为了在物理网路上传输必须知道对方的MAC地址,因为TCP/IP数据包封装时,先封装的是IP,然后是MAC地址,因此在查看数据包中的目的IP前,首先要拆掉第二层MAC地址。

①、一般在局域网获取MAC地址时,

A  某些节点会发送广播报文,报文中含有自己的MAC地址,问谁有这个IP地址

B  收到广播报文的主机都会检查自己拥有的所有IP地址,如果有的话就告诉那个节点说,“我有这个IP地址”,同时把MAC地址封装在里面

然后,两者互相拥有的对方的MAC地址,放在arp缓存里面,这里也可以设置即使自己有arp请求的IP地址,但是不去响应。

②、在linux中的相关arp参数

arp_ignore:定义对目标地址为本地IP的ARP询问不同的应答模式0

0 - (默认值): 回应任何网络接口上对任何本地IP地址的arp查询请求

1 - 只回答目标IP地址是来访网络接口本地地址的ARP查询请求

2 -只回答目标IP地址是来访网络接口本地地址的ARP查询请求,且来访IP必须在该网络接口的子网段内

3 - 不回应该网络界面的arp请求,而只对设置的唯一和连接地址做出回应

4-7 - 保留未使用

8 -不回应所有(本地地址)的arp查询

arp_announce:对网络接口上,本地IP地址的发出的,ARP回应,作出相应级别的限制: 确定不同程度的限制,宣布对来自本地源IP地址发出Arp请求的接口

0 - (默认) 在任意网络接口(eth0,eth1,lo)上的任何本地地址

1 -尽量避免不在该网络接口子网段的本地地址做出arp回应. 当发起ARP请求的源IP地址是被设置应该经由路由达到此网络接口的时候很有用.此时会检查来访IP是否为所有接口上的子网段内ip之一.如果改来访IP不属于各个网络接口上的子网段内,那么将采用级别2的方式来进行处理.

2 - 对查询目标使用最适当的本地地址.在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址.首要是选择所有的网络接口的子网中外出访问子网中包含该目标IP地址的本地地址. 如果没有合适的地址被发现,将选择当前的发送网络接口或其他的有可能接受到该ARP回应的网络接口来进行发送

2、DR模式数据包的请求响应流程。

a) 客户端发送请求到Director,目标地址为VIP。

b) 报文到达网关的时候,网关会问,谁有这个VIP地址,Real server和Director都配置有VIP地址,但是只有,Director响应。

c) Director收到客户端的报文之后,把报文中的目标MAC地址,根据算法改为Real server中的某一节点的MAC地址。数据包在转发过去,这时候源和目标IP地址都没有改变的。

d) Real server收到数据包之后,先拆开MAC层,发现是自己的MAC,在拆IP层,因为自己配置的也有VIP,所以报文就是自己的了。

e) Real server做出响应,把报文中的源和目标IP地址互换,然后响应给客户机,不需要经过Director

如果Real server只有一块网卡,所有的报文都会从网关出入,网关可能会成为单点,建议Real server配置外网IP。

3、配置

A、Real server

        echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore        
        echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
        echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce
        echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce 

        Ifconfig lo:0 vip_address netmask 255.255.255.255 broadcast vip_address up 只和自己通信。
        #route add -host vip_address dev lo:0   据说这一条可以不配置
        确保有httpd服务,和数据包可以通过,关闭防火墙。

B、Director

①、配置VIP地址

            Ifconfig eh0:0 vip_address/prefix up

②、测试能否和real server 通信

            Ping real_server_address

③、配置ipvs规则

            Ipvsadm -A -t vip_address [-s schedualr -p persistence]            
            Ipvsadm -a -t vip_address -r real_server_address -g [-w #] 
            Ipvsadm -a -t vip_address -r real_server_address -g [-w #]

3.2 配置实例

    Director: DIP 192.168.198.160        
        VIP:192.168.198.161
        Real server:
        Node2:192.168.198.140 
        Node3:192.168.198.150

Real server:

node3和node2配置是一样的。

Director

看一下效果

4、总结:

1、只是使用了简单的调度算法,使用其他的可以在配置director 的时候加上-s 调度算法

2、使用-p选项可以持久连接

3、这个后台,我怎么编辑,前台看起来间隙都是很大啊。

最后就是提升一下做事的效率了,写篇博客花了不少时间。

参考

http://www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html    arp参数的含义。

http://wolfchen.blog.51cto.com/2211749/1122841            lvs dr配置详解

时间: 2024-08-12 00:52:46

lvs-dr 原理与配置的相关文章

LVS集群的基本原理、LVS/NAT模式的配置、LVS/DR模式的配置、编写自动脚本检查LVS上realserver健康性

Linux 虚拟服务器(LVS)由章文嵩在国防科技大学就读博士期间创建利用LVS可以实现高可用的.可伸缩的Web.Mail.Cache和Media等网络服务,已经被集成到linux内核里了. 1.什么是集群? 使用一组服务器提供相同的服务2.使用集群的目的? 增强可靠性   降低成本   提高可扩展性   提高性能3.集群分类? HPC 高性能计算集群    (气象   航天   航空)    LB    负载均衡集群 (平均地分摊处理)    * LVS    hproxy HA    高可用

四层负载均衡LVS/DR模式的配置

1.环境准备准备 3 台纯净的虚拟机,两台 web 服务器,并关闭所有的防火墙和selinux 2.部署说明:? 网络使用NAT模式 ? DR模式要求Director DIP 和 所有RealServer RIP必须在同一个网段及广播域 ? 所有节点网关均指定真实网关 3.LVS-server 安装lvs管理软件 yum -y install ipvsadm 4.需要手动生成ipvsadm文件否则启动会报错 [[email protected] ~]# ipvsadm --save > /etc

CentOS下LVS DR模式负载均衡配置详解

一安装LVS准备: 1.准备4台Centos 6.2 x86_64 注:本实验关闭 SELinux和IPtables防火墙. 管理IP地址 角色 备注 192.168.1.101 LVS主调度器(Master Director) 对外提供服务的VIP为192.168.1.180 192.168.1.114 LVS从调度器(Backup Director) 平时可以作为RS(真实服务器使用) 192.168.1.104 RS1(真实服务器)   192.168.1.103 RS2(真实服务器)  

LVS/DR模式实战

线上服务器清理的差不多了,准备做一下服务器分层架构,就是将LNMP环境分离开,用到了LB集群,先来点理论吧. 负载均衡LB集群主要关注的是并发处理能力,常用的有:LVS.nginx.haproxy. LVS是基于四层的负载均衡,不支持复杂特性的负载均衡,转发效率比7层略高 nginx.haproxy都是七层的负载均衡,可以根据特性进行负载均衡,比较灵活. 这里主要说说LVS的原理与配置方法, LVS原理其实就是利用iptables的INPUT链,侦听在INPUT链,拦截访问集群服务的数据包,将进

第三十三天 LVS基础原理、调度算法、NAT和DR的实现 、LXC虚拟化

大规模站点构建框架 LVS的基础原理 LVS调度方法及NAT模型的实现 LVS  dr模型及lxc虚拟化 一.大规模站点架构框架 http: stateless keep-alive cookie: session 系统的:可扩展性.高可用性:99%, 99.9%, 99.999% .性能: 可扩展性: 容量:在一定时间内能完成的工作量 scale up: 向上扩展 scale out: 向外扩展 Cluster: 集群 构建高可扩展性系统的重要原则:在系统内部尽量避免串行化和交互 调度器:di

(2)LVS+Keepalived高可用负载均衡架构原理及配置

1.keepalived 介绍2.keepalived 优缺点3.keepalived 应用场景4.keepalived 安装配置5.keepalived+lvs 高可用6.keepalived+nginx 高可用7.keepalived 切换原理8.性能优化9.常见故障 一.keepalived 介绍 1.keepalived 定义keepalived是一个基于VRRP(virtual route redundent protocol)协议来实现的LVS服务高可用方案,可以利用其来避免单点故障

LVS DR 配置

LVS DR 配置 架构图 架构说明: Vmware上实现,一共需要3台虚拟机.物理机模拟客户端.配置RR轮询的调度方法以便显示效果   Director主机配置 Director地址配置: VIP地址: 192.168.61.100 DIP地址: 192.168.93.133 ifonfig eth0:0 192.168.61.100 netmask255.255.255.255 broadcast 192.168.61.100 up route add -host 192.168.61.10

LVS集群DR、NAT模型配置, 及使用ldirectord完成LVS DR模型集群搭建

首先我们有三台主机:其中172.16.192.168作为前台主机:另外172.16.254.18和172.16.254.105作为后端主机,作为测试分别运行有web服务,并测试可用,如下图. 一.LVS NAT模型集群配置实验 1.首先在后端Real Server上设置默认网关,执行前端Virtual Server 2.在前端Virtual Server上开启路由转发功能 3.配置前端LVS集群 4.测试 总结:经过初步测试,我们可以看出已经可以实现rr轮询调度,修改相应的调度算法则可以实现不同

LVS/DR + keepalived配置

1.LVS/DR 搭建的不足及解决方法 前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常.所以需要有一种机制用来检测real server的状态,这就是keepalived.它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived可以实现ha集群的功能,当然了也需要一台备用director. 2.搭建环境前的工作 h

基于云端虚拟机的LVS/DR+Keepalived+nginx的高可用集群架构配置

最近,公司要我部署一个集群架构,选来选取还是选择了大家都很熟悉的基于DR的LVS+Keepalived做负载分发,然后使用轻量级的nginx做中间代理层,这里呢先暂时实现一个简单web应用功能,对于代理功能和后续的web层部署.数据层安排将择机更新! 首先看一下集群框架:   下面开始我们的集群搭建行程: 一.IP规划: 做一件事情需要想想怎么去做既简单又有条理,我们做项目也应该如此.所以这里一定先做一个简单的规划,对于你后续测试的时候出现不能分发的情况有所解决. 负载均衡层