LVS+Heartbeat高可用负载均衡

一,环境配置

VIP:192.168.222.222

RIP:192.168.222.134

RIP:192.168.222.135

DR_MASTER:eth0 192.168.222.128 eth1 172.16.0.1 (单网卡也行)

DR_SLAVE:eth0 192.168.222.129 eth1 172.16.0.2 (单网卡也行)

二,DR配置

1,安装软件

yum install epel-release -y

yum install ipvsadm -y

yum install heartbeat -y

wget ftp://ftp.pbone.net/mirror/rpms.arrfab.net/centos/testing/x86_64/heartbeat/heartbeat-ldirectord-2.99.2-8.1.el5.test.x86_64.rpm

yum localinstall heartbeat-ldirectord-2.99.2-8.1.el5.test.x86_64.rpm

2,主机名修改

1)192.168.222.128:

hostname DR_MASTER

vim /etc/hosts添加如下

192.168.222.128 DR_MASTER

192.168.222.129 DR_SLAVE

2)192.168.222.129

hostname DR_SLAVE

vim /etc/hosts添加如下

192.168.222.128 DR_MASTER

192.168.222.129 DR_SLAVE

3,编辑配置文件

cd /usr/share/doc/heartbeat-3.0.4/

cp ha.cf haresources authkeys /etc/ha.d/

cp /usr/share/doc/heartbeat-ldirectord-2.99.2/ldirectord.cf /etc/ha.d/

1)编辑配置文件ha.cf

bcast eth1#广播给网卡eth1

node DR_MASTER#指明DR_MASTER节点

node DR_SLAVE#指明DR_SLAVE节点

2)编辑认证密钥配置文件authkeys

auth 3

3 md5 Hello!

#chmod 600 authkeys

3)编辑配置文件haresources, 该文件列出集群主节点、集群IP、子网掩码以及启动的服务等集群资源

DR_MASTER 192.168.222.222/24/eth0 ldirectord::ldirectord.cf

4)编辑配置文件ldirectord.cf

quiescent=no

# Sample for an http virtual service

virtual=192.168.222.222:80

real=192.168.222.134:80 gate

real=192.168.222.135:80 gate

#fallback=127.0.0.1:80 gate #realserver全死掉指向本机

service=http

request=".test.html" #通过访问含有”OK”内容的.web.html这个web页面来达到监测后方的real server

receive="OK"

#virtualhost=some.domain.com.au

scheduler=rr

#persistent=600

#netmask=255.255.255.255

protocol=tcp

checktype=negotiate

checkport=80

TIPS://

quiescent=no

#"no"表示:如果一个节点在checktimeout设置的时间周期内没有相应,ldirectord会从LVS的路由表中之间移除realserver,此时中断现有的客户端连接,并使LVS丢掉所有的连接跟踪记录和持续连接记录

#"yes"表示:当某个realserver失效时,ldirectord将失效节点的权值设置为0,新的连接将不能到达,但是并不从LVS路由表中清除此节点,同时,连接跟踪记录和程序连接模版仍然保留在Director上

ldirectord指出守护进程监视realserver方法,checktype有以下四种:

#negotiate:在checktimeout周期内真实服务器都没有返回你指定的应答字符串,这个节点就被认为死掉了

request=".test.html"

receive="OK"

#connect:在checkport指定的端口上连接真实服务器,需要到真实服务器的TCO/IP连接是通畅的,这个方法没有negotiate可靠

#A number:在这里指定一个数字代替,ldirectord先执行连接次数测试,再执行一次negotiate测试,减少真实服务器应答健康检查和集群网络通讯

#off:禁用ldirectord监视真实服务器的健康。

三,realserver配置

echo "ok"> /var/www/html/.test.html

realsever.sh同上一篇《LVS+Keepalived高可用负载均衡》。

时间: 2024-10-11 11:50:11

LVS+Heartbeat高可用负载均衡的相关文章

Heartbeat+LVS+Ldirectord高可用&负载均衡

集群技术主要分为三大类: 高可用性(High Available Cluster),例:Linux-HA 负载均衡(Load balancing Cluster),例:LVS.MOSIX 高性能计算(High Performance Computing),例:Beowulf 我们这里使用 RHEL5.2,LVS,Linux-HA,Ldirectord,构造一个高可用的负载均 衡集群系统.如图: Load Balancer 是整个集群系统的前端,负责把客户请求转发到 Real Server 上.

(2)LVS+Keepalived高可用负载均衡架构原理及配置

1.keepalived 介绍2.keepalived 优缺点3.keepalived 应用场景4.keepalived 安装配置5.keepalived+lvs 高可用6.keepalived+nginx 高可用7.keepalived 切换原理8.性能优化9.常见故障 一.keepalived 介绍 1.keepalived 定义keepalived是一个基于VRRP(virtual route redundent protocol)协议来实现的LVS服务高可用方案,可以利用其来避免单点故障

DNS+keepalived+lvs实现高可用负载均衡集群

1.目的: 部署两台lvs调度器并利用keepalived实现主主模型,DNS添加两条A记录指向lvs调度器实现轮询,最终实现高可用负载均衡集群效果 2.拓扑规划: 3.配置实践 (1)同步所有机器时间 在每台机器实行ntp同步: [[email protected] ~]# ntpdate 10.1.0.1 26 Oct 20:10:57 ntpdate[5533]: step time server 10.1.0.1 offset -32408.643564 sec (2)先配置RS,在RS

LVS+Keepalived高可用负载均衡集群架构

实验环境: LVS和keepalived介绍: 1.keepalived的设计目标是构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器,管理服务器池,而不仅仅用来做双机热备. 使用keepalived构建LVS群集更加简便易用,主要优势体现在: 对LVS负载调度器实现热备切换,提高可用性: 对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入. 2.在基于LVS+Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,两台以上的节点服务器,

Keepalived+LVS(dr)高可用负载均衡集群的实现

一 环境介绍 1.操作系统CentOS Linux release 7.2.1511 (Core) 2.服务keepalived+lvs双主高可用负载均衡集群及LAMP应用keepalived-1.2.13-7.el7.x86_64ipvsadm-1.27-7.el7.x86_64httpd-2.4.6-45.el7.centos.x86_64mariadb-5.5.52-1.el7.x86_64php-5.4.16-42.el7.x86_64 二 原理及拓扑图 1.vrrp协议vrrp(Vir

Ubuntu构建LVS+Keepalived高可用负载均衡集群【生产环境】

1.环境说明: 系统版本:Ubuntu 14.04 LVS1物理IP:14.17.64.2   初始接管VIP:14.17.64.13 LVS2物理IP:14.17.64.3   初始接管VIP:14.17.64.14 真实web服务器IP:14.17.64.4-12 实现效果:去往14.17.64.13或14的报文,转发给14.17.64.4-12中的一台服务器处理,实现负载均衡. 要求1:当一台真实web服务器故障后,自动把该IP从负载均衡中踢除,恢复后自动加入集群. 要求2:当一台LVS服

lvs+keepalived 高可用负载均衡模式分析

1. 前言 在<keepalived 双机热备>这篇文章中,我写了利用keepalived 这个开源软件实现高可用的功能,以及keepalived 高可用所使用的协议--利用vrrp 协议,在高可用网络组内广播自己的优先级,优先级最高的就能抢占vip资源,充当MASTER 主机,提供服务.在今天这篇文章,我们来看看lvs 如何与keepalived 的高可用功能结合,实现对负载均衡调度器的高可用. 经过<lvs_nat 负载均衡模式及抓包分析> 和<lvs_dr 负载均衡模式

Ubuntu构建LVS+Keepalived高可用负载均衡集群【生产环境部署】

1.环境说明: 系统版本:Ubuntu 14.04 LVS1物理IP:14.17.64.2   初始接管VIP:14.17.64.13 LVS2物理IP:14.17.64.3   初始接管VIP:14.17.64.14 真实web服务器IP:14.17.64.4-12 实现效果:去往14.17.64.13或14的报文,转发给14.17.64.4-12中的一台服务器处理,实现负载均衡. 要求1:当一台真实web服务器故障后,自动把该IP从负载均衡中踢除,恢复后自动加入集群. 要求2:当一台LVS服

lvs+keepalived高可用负载均衡集群双主实现

项目说明 1.         使用LVS负载均衡用户请求到后端web服务器,并且实现健康状态检查 2.         使用keepalived高可用LVS,避免LVS单点故障 3.         集群中分别在LK-01和LK-02运行一个VIP地址,实现LVS双主 4.         用户通过DNS轮训的方式实现访问集群的负载均衡(不演示) 环境拓扑 环境介绍 IP地址 功能描述 LK-01 172.16.4.100 调度用户请求到后端web服务器,并且和LK-02互为备份 LK-02