Keepalived + LVS DR 配置 终版

Keepalived + LVS DR 配置 终版
Keepalived负载均衡配置
缺点LVS如果分发器dir宕机全部失效 dir做个高可用可避免,如果一个rs宕机,也会把请求发到rs上,无法自动识别
完整架构需要两台服务器(角色为dir) 分别安装Keepalived软件,目的实现高可用,但Keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台Keepalived
Keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本
三台机器分别为:
dir (安装Keepalived) 133.130
RS1 133.132
RS2 133.133
VIP 133.200
编辑keepalive配置文件 vim /etc/keepalived/keepalived.conf // 内容
vrrp_instance VI_1 {
#备用服务器上为 BACKUP
state MASTER
#绑定vip的网卡为ens33,你的网卡可能不一样,这里需要你改一下
interface ens33
virtual_router_id 51
#备用服务器上为90
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass sgc
}
virtual_ipaddress {
192.168.133.200 vip需要修改
}
}
virtual_server 192.168.133.200 80 {
#(每隔10秒查询realserver状态)
delay_loop 10
#(lvs 算法)
lb_algo wlc
#(DR模式)
lb_kind DR
#(同一IP的连接60秒内被分配到同一台realserver)
persistence_timeout 60
#(用TCP协议检查realserver状态)
protocol TCP

real_server 192.168.133.130  80 {                   RS1  IP
    #(权重)
    weight 100
    TCP_CHECK {
    #(10秒无响应超时)
    connect_timeout 10
    nb_get_retry 3
    delay_before_retry 3
    connect_port 80
    }
}
real_server 192.168.133.13380 {                      RS2  IP
    weight 100
    TCP_CHECK {
    connect_timeout 10
    nb_get_retry 3
    delay_before_retry 3
    connect_port 80
    }
 }

}

需要更改里面ip信息
重启keepalived
执行 ipvsadm -C 把之前的ipvsadm规则清空掉
service network restart 把之前VIP 清空掉
两台rs上,依然执行 /usr/local/sbin/lvs_rs,sh脚本
keepalived有一个比较好的功能,可以一台rs宕机时,不在把请求转发过去
测试

原文地址:http://blog.51cto.com/sgc666/2151892

时间: 2024-10-29 00:19:30

Keepalived + LVS DR 配置 终版的相关文章

RHEL6 搭建 keepalived + lvs/DR 集群

搭建 keepalived + lvs/DR  集群 使用Keepalived为LVS调度器提供高可用功能,防止调度器单点故障,为用户提供Web服务: LVS1调度器真实IP地址为192.168.4.50 LVS2调度器真实IP地址为192.168.4.55 服务器VIP地址设置为192.168.4.252 真实Web服务器地址分别为192.168.4.51.192.168.4.52 实验拓扑图: 实验步骤: 实验准备: 配置yum源 # service iptables stop       

负载均衡(LVS DR模式搭建,DR只用一个公网ip,Keepalived+LVS DR)

一.LVS DR模式搭建 准备工作 三台机器: 分发器,dir:192.168.52.100 rs1:192.168.52.101  (网关改回来,之前nat模式改成100) rs2: 192.168.52.102  (网关改回来,之前nat模式改成100) vip:192.168.52.200   (这个虚拟ip需要绑定在每台机器上) 分发器dir上: [[email protected] ~]# iptables -F [[email protected] ~]# vim /usr/loca

keepalived+LVS/DR

keepalived 是解决单故障节点的软件1. keepalived+LVS/DR2. 任意单故障节点 的 高可用作 分发器 的 高可用用 keepalived 作 LVS/DR 模式 分发器 的 高可用实验拓扑clientnode1主.node2备webA .webB 浮动资源有: 浮动ip.策略 IP 规划client 192.168.4.254node1 192.168.4.50node2 192.168.4.55浮动ip(vip) 192.168.4.252webA 192.168.4

LVS DR 配置

LVS DR 配置 架构图 架构说明: Vmware上实现,一共需要3台虚拟机.物理机模拟客户端.配置RR轮询的调度方法以便显示效果   Director主机配置 Director地址配置: VIP地址: 192.168.61.100 DIP地址: 192.168.93.133 ifonfig eth0:0 192.168.61.100 netmask255.255.255.255 broadcast 192.168.61.100 up route add -host 192.168.61.10

LVS DR 模式搭建、Keepalived+LVS DR模式搭建

LVS DR 模式搭建 Keepalived+LVS DR模式搭建 原文地址:http://blog.51cto.com/13515599/2097080

六十三、LVS DR模式搭建、Keepalived+LVS DR

一.LVS DR模式搭建 准备工作: 三台机器 只需要一个网卡,一个IP 分发器,也叫调度器(简写为dir) 93.130 rs1 93.131     网关改回93.2 rs2 93.132      网关改回93.2 vip 93.200 dir上编写脚本 vim /usr/local/sbin/lvs_dr.sh //内容如下 #! /bin/bash echo 1 > /proc/sys/net/ipv4/ip_forward ipv=/usr/sbin/ipvsadm vip=192.

LVS DR配置和keepalived+LVS

LVS DR 准备工作群集的虚拟VIP:192.168.1.222dir分发器:192.168.1.220rs1:192.168.1.223rs2:192.168.1.234 rs1和rs2安装需要的web服务 [[email protected] src]# yum install -y nginx 在dir上安装ipvsadm,并配置路由转发和ipvsadm转发 #! /bin/bash echo 1 > /proc/sys/net/ipv4/ip_forward ipv=/usr/sbin

Keepalived+LVS(dr)高可用负载均衡集群的实现

一 环境介绍 1.操作系统CentOS Linux release 7.2.1511 (Core) 2.服务keepalived+lvs双主高可用负载均衡集群及LAMP应用keepalived-1.2.13-7.el7.x86_64ipvsadm-1.27-7.el7.x86_64httpd-2.4.6-45.el7.centos.x86_64mariadb-5.5.52-1.el7.x86_64php-5.4.16-42.el7.x86_64 二 原理及拓扑图 1.vrrp协议vrrp(Vir

LVS DR 配置详解

DR模式是通过改写请求报文的目标MAC地址,将请求发给真实服务器的,而真实服务器响应后的处理结果直接返回给客户端用户.同TUN模式一样,DR模式可以极大的提高集群系统的伸缩性.而且DR模式没有IP隧道的开销,对集群中的真实服务器也没有必要必须支持IP隧道协议的要求.但是要求调度器LB与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境. DR模式是互联网使用比较多的一种模式. DR模式原理图: DR模式原理过程简述: VS/DR模式的工作流程图如上图所示,它的连接调度和管理与