LVS DR集群

原理:LVS DR(director Routing)技术利用了Internet服务的非堆成特带你,调度器只负责调度Client发出的请求,

而服务器realserver直接将响应结果发挥给Client,因此相对LVS NAT方式而言可以提高整个集群数据包的吞吐量。关

于LVS DR的搭建架构应满足:电镀漆和服务器在物理上有一个网卡通过局域网链接,VIP地址被电镀漆和服务器组共享,

电镀漆配置的VIP地址对外部是可见的,用于接收虚拟服务的请求报文。把所有服务器的VIP地址配置在各自的NOn-ARP

网路设备,它对外不可见,只是用于处理目标地址为VIP的网络请求。

实验环境:

客户机1: 客户机2 转发器 realserver1 realserver2
node2 宿主主机 node1 web1 web2

网络拓扑图

node1设置文件:

需要修改文件

网元位置 网卡名 链接方式 对应ip

node1     eth0 桥接 RIP

node1      eth0:0     虚拟网卡     VIP

转发器node1相关配置信息

eth0eth0:0
DEVICE=eth0DEVICE=eth0:1                 
TYPE=Ethernet                              TYPE=Ethernet                 
UUID=c64ec2f3-0393-4215-9488-b87eb098fc33               ONBOOT=yes                    
ONBOOT=yes                                NM_CONTROLLED=yes             
NM_CONTROLLED=yes                            BOOTPROTO=none                
BOOTPROTO=none                              DEFROUTE=yes                  
PREFIX=24                                 IPV4_FAILURE_FATAL=yes        
DEFROUTE=yes                               IPV6INIT=no                   
IPV4_FAILURE_FATAL=yes                        HWADDR=00:0C:29:D0:6B:6B      
IPV6INIT=no                                USERCTL=no                    
NAME="System eth0"                           IPADDR=192.168.4.233          
HWADDR=00:0C:29:D0:6B:6B                       NETMASK=255.255.255.0         
USERCTL=no                                GATEWAY=192.168.4.149           
IPADDR=192.168.4.201                          DNS1=192.168.4.149              
NETMASK=255.255.255.0                         [r[email protected] network-scripts]# 
GATEWAY=192.168.4.149
DNS1=192.168.4.149

realserver::

网元位置 网卡名 链接方式 对应IP

web1 eth0 桥接 RIP

web1 lo:1 复制lo VIP

相关网卡配置

eth0

lo:1
DEVICE=eth0                         DEVICE=lo:0            
TYPE=Ethernet                        IPADDR=192.168.4.233         //VIP
UUID=3a5f26b3-6ef6-4f8f-8a67-dd65291a109e          NETMASK=255.255.255.255      //只针对此IP地址的包进行处理
ONBOOT=yes                          ONBOOT=yes             
NM_CONTROLLED=yes                      NAME=loopback          
BOOTPROTO=none                           
PREFIX=24                                
DEFROUTE=yes                             
IPV4_FAILURE_FATAL=yes                   
IPV6INIT=no                              
NAME=System eth0                         
HWADDR=00:0C:29:E4:32:DC                 
USERCTL=no                               
IPADDR=192.168.4.211                     
NETMASK=255.255.255.0                    
GATEWAY=192.168.4.149                      
DNS1=192.168.4.149

realserver2:web2

网元位置: 网卡名   链接方式 对应IP

web2 eth0   桥接 RIP

web2 lo:0     复制lo VIP

相关网卡配置信息

eth0

eth0                                                    lo:0
DEVICE=eth0                           DEVICE=lo:0           
TYPE=Ethernet                          IPADDR=192.168.4.203   
UUID=3a5f26b3-6ef6-4f8f-8a67-dd65291a109e            NETMASK=255.255.255.255
ONBOOT=yes                            ONBOOT=yes             
NM_CONTROLLED=yes                        NAME=loopback          
BOOTPROTO=none                           
PREFIX=24                                
DEFROUTE=yes                             
IPV4_FAILURE_FATAL=yes                   
IPV6INIT=no                              
NAME="System eth0"                       
HWADDR=00:0C:29:D4:56:5C                 
USERCTL=no                               
IPADDR=192.168.4.212                     
NETMASK=255.255.255.0                    
GATEWAY=192.168.4.149                      
DNS1=192.168.4.149

director相关文件:

vi /etc/sysctl.conf 
net.ipv4.ip_forward = 1   //修改位置
sysctl -p   //对刚才配置文件进行保存
对于realserver web1和web2服务器可以通过配置文件永久生效如下所示
realserver(1&2):echo"net.ipv4.conf.eth0.arp_ignore=1 
                 net.ipv4.conf.eth0.arp_announce=2 " >>/etc/sysctl.conf
                 sysctl -p
RealServer或临时生效:
 
echo 2 >  /proc/sys/net/ipv4/conf/eth0/arp_announce  
 echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore

主角部分:在分发器上安装ipvsadm管理工具

rpm -ivh /media/cdrom/LoadBlanced/ipvsadm-1.26-4.el6.x86_64.rpm 
ipvsadm -A -t 192.168.4.201:80 -s rr
ipvsadm -a -t 192.168.4.201:80 -r 192.168.4.211 -g
ipvsadm -a -t 192.168.4.201:80 -r 192.168.4.212 -g  
/etc/init.d/ipvsadm save
ipvsadm -L -n

生成验证文件

realserver:生成验证文件,使用httpd服务
并对:web1   echo "web11111" >> /var/www/html/index.html
web2 echo "web22222" >> /var/www/html/index.html

虚拟机linux客户端测试:

yum -y install elinks
elinks 192.168.4.201 -dump  //观察结果  满足预测结果
[[email protected] ~]# elinks 192.168.4.233 -dump
   web5678
[[email protected] ~]# elinks 192.168.4.233 -dump
   web1234
[[email protected] ~]# elinks 192.168.4.233 -dump
   web1234
[[email protected] ~]# elinks 192.168.4.233 -dump
   web5678
[[email protected] ~]# elinks 192.168.4.233 -dump
   web1234
[[email protected] ~]# elinks 192.168.4.233 -dump
   web5678
[[email protected] ~]#

宿主主机测试

转发器node1结果

[[email protected] ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.4.233:80 rr
  -> 192.168.4.211:80             Route   1      0          8         
  -> 192.168.4.212:80             Route   1      0          7
[[email protected] ~]# ipvsadm -L -n --stats
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port               Conns   InPkts  OutPkts  InBytes OutBytes
  -> RemoteAddress:Port
TCP  192.168.4.233:80                   24      116        0     9597        0
  -> 192.168.4.211:80                   12       60        0     4980        0
  -> 192.168.4.212:80                   12       56        0     4617        0

现实情况中可根据实际规划信息进行相应的算法调度,LVS所提供的12中调度算法,在一定程度上能满足大多数服务器的架构需求。

时间: 2024-10-18 21:23:13

LVS DR集群的相关文章

RHEL6 搭建 keepalived + lvs/DR 集群

搭建 keepalived + lvs/DR  集群 使用Keepalived为LVS调度器提供高可用功能,防止调度器单点故障,为用户提供Web服务: LVS1调度器真实IP地址为192.168.4.50 LVS2调度器真实IP地址为192.168.4.55 服务器VIP地址设置为192.168.4.252 真实Web服务器地址分别为192.168.4.51.192.168.4.52 实验拓扑图: 实验步骤: 实验准备: 配置yum源 # service iptables stop       

LVS高性能集群

LVS高性能集群  ====负载均衡硬件设备 1.什么是LVS?   linux virtual service,linux虚拟服务,使用多台服务器一起工作来提高服务的访问和处理性能   2.lvs的工作模式   (1)nat:通过地址转换访问服务   (2)tun:通过IP隧道访问服务   (3)dr:直接调度访问服务  ====直接路由调度 1.轮寻    2.加权,根据硬件的好坏来设置权值   3.最小连接4. 加权最小连接5. 基于地址的最小连接调度6. 目标7. 源        3.

LVS 服务器集群三种实现模式配置

LVS (Linux Virtual Server) Linux 服务器集群 LVS服务器集群中基于IP的负载均衡技术,有3种实现模式:VS/NET模式,VS/TUN模式(IP隧道模式),VS/DR模式(直接路由模式) 一,[VS/NET 模式] 1,配置Linux Director(前端负载调度器)IP,并打开IP数据包转发功能 1 2 3 ifconfig eth0 192.168.1.2 broacast 192.168.1.255 netmask 255.255.255.0 up ifc

lvs+keepalived集群架构服务

lvs+keepalived集群架构服务 一,LVS功能详解 1.1 LVS(Linux Virtual Server)介绍 LVS是Linux Virtual Server 的简写(也叫做IPVS),意即Linux虚拟服务器,是一个虚拟的服务器集群系统,可以在UNIX/LINUX平台下实现负载均衡集群功能. 1.2 企业网站LVS集群架构图 1.3 IPVS软件工作层次图 从上图我们看出,LVS负载均衡调度技术是在Linux内核中实现的,因此,被称之为Linux虚拟服务器(Linux Virt

Heartbeat+Ldirectord+LVS+httpd集群部署

一.硬件环境 4台虚拟机在同一网段 操作系统:centos6.3 关闭系统不必要的服务脚本 #!/bin/bash services=`chkconfig --list|cut -f1|cut -d" " -f1` for ser in $services do  if [ "$ser" == "network" ] || [ "$ser" == "rsyslog" ] || [ "$ser&qu

通过heartbeat搭建lvs高可用性集群

首先,在主.备节点上配置lvs信息,一般通过ldirectord配置 在搭建Director Server的双机热备系统之前,首先需要在两台主机上安装heartbeat软件,安装软件后在/etc/ha.d/ha.cf产生主配置文件 1.配置heartbeat的主配置文件/etc/ha.d/ha.cf #debugfile /var/log/ha-debug logfile /var/log/ha-log   #指定heartbeat的日志存放位置 #crm yes     #是否开启Cluste

LVS搭建集群实现负载均衡-NAT模式

服务介绍: LVS 简称 Linux Virtual Server,在实际环境中经常作为B/S结构的网络应用中的负载均衡器来使用,工作在7层网络模型中的,网络层,也就是通常说的IP层,由于数据的处理是在Linux内核态完成的,所以性能很高 nat 模式: 支持任 何操作系统,以及私有网络,只需要一个公网ip ,系统性能受到限制,每次执行nat需要重写包,有一定延迟. 实验环境 实验环境: xuegod 63   VIP:eth0 192.168.0.103    ; DIP:eth1 192.1

架构3(基于LVS LB集群解决方案一:piranha)

1.实现调度器的HA 2.对realserver做健康检测 3.动态维护IPVS路由表 pulse 活跃和备用lvs路由器中都会运行pulse守护进程,在备用路由器中,pulse向活跃的服务器的公共接口发送一个heartbeat来确定活跃路由器依然正常工作,在活跃服务器中,pulse启动lvs守护进程,并回应备用lvs路由器的heartbeat查询 lvs 一旦被pulse调用,lvs守护进程就运行在活跃lvs路由器中.它读取配置wenjian etc/sysconfig/ha/lvs.cf调用

lvs+keepalived 集群

3.2 配置master Director3.3 backup director配置 原文地址:http://blog.51cto.com/1054054/2306767