lvs+heartbeat+ldirectord实现Director的高可用

测试环境:

OS:rhel6

Director1:192.168.1.121  heartbeat  heartbeat-ldirectord  ipvsadm  VIP  hb_gui

Director2:192.168.1.122  heartbeat  heartbeat-ldirectord  ipvsadm  VIP

RS1:192.168.1.111  httpd  VIP

RS2:192.168.1.112  httpd  VIP

VIP:192.168.1.160

LVS实现DR模型

PS:注意这里的测试过程是在上两篇博文的基础上操作的。。。go on !!

一,首先在Director1上停止自己和Director2的heartbeat服务和安装ipvsadm

#service heartbeat stop

#ssh Director2.luochen.com ‘service heartbeat stop‘

#yum -y install ipvsadm

#ssh Director2.luochen.com ‘yum -y install ipvsadm‘

二,在RS1上设定内核参数

#echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore

#echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore

#echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce

#echo 1 > /proc/sys/net/ipv4/conf/all/arp_announce

配置VIP

#ifconfig lo:0 192.168.1.160 netmask 255.255.255.255 broadcast 192.168.1.160 up

#route add -host 192.168.1.160 dev lo:0

查看VIP是否添加成功

#ifconfig

#route -n

提供httpd服务的测试页面

#vim /var/www/html/index.html

<h1>RS1</h1>

#service httpd start

在本地测试看httpd是否启动正常

#curl http://192.168.1.111

#curl http://192.168.1.160

三,在RS2上设定内核参数

#echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore

#echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore

#echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce

#echo 1 > /proc/sys/net/ipv4/conf/all/arp_announce

配置VIP

#ifconfig lo:0 192.168.1.160 netmask 255.255.255.255 broadcast 192.168.1.160 up

#route add -host 192.168.1.160 dev lo:0

查看VIP是否添加成功

#ifconfig

#route -n

提供httpd服务的测试页面

#vim /var/www/html/index.html

<h1>RS2</h1>

#service httpd start

在本地测试看httpd是否启动正常

#curl http://192.168.1.112

#curl http://192.168.1.160

四,在前端任意一台Director主机ping Rip 和 Vip

#ping 192.168.1.111   响应   Rip1

#ping 192.168.1.112   响应   Rip2

#ping 192.168.1.160   不响应Vip

五,在D1上定义ipvs集群测试

#chkconfig ipvsadm off

#ifconfig eth0:0 192.168.1.160/24 up

#route add -host 192.168.1.160 dev eth0:0

定义ipvs规则

#ipvsadm -A -t 192.168.1.160:80 -s rr

#ipvsadm -a -t 192.168.1.160:80 -r 192.168.1.111 -g

#ipvsadm -a -t 192.168.1.160:80 -r 192.168.1.112 -g

#ipvsadm -L -n

#service ipvsadm save

#service ipvsadm stop

#ifconfig eth0:0 down

#scp /etc/sysconfig/ipvsadm Director2.luochen.com:/etc/sysconfig/

六,在宿主机上访问vip测试

七,在D2上定义ipvs集群测试

#chkconfig ipvsadm off

#ifconfig eth0:0 192.168.1.160/24 up

#route add -host 192.168.1.160 dev eth0:0

#ipvsadm -R < /etc/sysconfig/ipvsadm

#ipvsadm -L -n

#service ipvsadm restart

八,在宿主机上访问vip测试

九,在安装配置heartbeat-ldirector之前需要停止ipvsadm服务,关闭eth0:0,删除路由条目,删除ipvs规则

#service ipvsadm stop

#ipvsadm -L -n       (停止ipvsadm服务会清空所有的ipvs规则)

#ifconfig eth0:0 down

#ifconfig

#route del -host 172.16.100.36

#route -n

#rm -rf /etc/sysconfig/ipvsadm

十,在Director1上关闭自己和Director的heartbeat服务

#service heartbeat stop

#ssh Director2.luochen.com ‘service heartbeat stop‘

十一,在Director1和Director2上安装heartbeat-ldirectord

#yum install heartbeat-ldirectord-2.1.4-12.el6.x86_64.rpm

#rpm -ql heartbeat-lidirectord

#chkconfig ldirectord off

十二,在Director1上提供ldirectord的配置文件

#cp /usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf /etc/ha.d/

#vim /etc/ha.d/ldirectord.cf           (ldirectord会自动配置ipvs规则,ipvsadm服务不会启动)

virtual=192.168.1.160:80     (定义一个虚拟服务的 vip:80)

real=192.168.1.111:80 gate

real=192.168.1.112:80 gate (前面tab缩进是必须的)

failback=127.0.0.1:80 gate   (备用本地web服务器,后端所有RS  down了,启用)

service=hhtp                        (基于那种协议做健康状态检测的)

request=".health.html"         (健康状态检测的页面)

receive="OK"                        (搜索关键字)

scheduler=rr                         (调度算法)

#scp ldirectord.cf Director2.luochen.com:/etc/ha.d/

#service ldirectord stop

#ssh Director2.luochen.com ‘service ldirectord stop‘

#service heartbeat start

#ssh Director2.luochen.com ‘service heartbeat start‘

十三,在RS1和RS2上提供健康状态检测文件

#vim /var/www/html/.health.html

ok

十四,在Director1上执行hb_gui 配置Director的高可用服务

#hb_gui &

定义资源组

添加VIP

添加ldirectord服务

资源组添加完毕

最后就是测试了,在运行服务的Director节点上查看VIP是否配置成功和ipvs规则是否添加成功

#ip addr  show

#ipvsadm -L -n

时间: 2024-12-07 20:28:16

lvs+heartbeat+ldirectord实现Director的高可用的相关文章

LVS专题: LVS+Keepalived并使用DNS轮询实现Director的高可用和负载均衡

LVS专题: LVS+Keepalived并使用DNS轮询实现Director的高可用和负载均衡 前言 LVS专题写到第三篇了, 前两篇我们对LVS的基础使用也有了一些了解, 这篇我们将做一个比较复杂的实验, 话不多说, 开始吧! 什么是KeepAlived What is Keepalived ? Keepalived is a routing software written in C. The main goal of this project is to provide simple a

CentOS 6.3下部署LVS(NAT模式)+keepalived实现高性能高可用负载均衡

一.简介 VS/NAT原理图: 二.系统环境 实验拓扑: 系统平台:CentOS 6.3 Kernel:2.6.32-279.el6.i686 LVS版本:ipvsadm-1.26 keepalived版本:keepalived-1.2.4 三.安装 0.安装LVS前系统需要安装popt-static,kernel-devel,make,gcc,openssl-devel,lftp,libnl*,popt* 1.在两台Director Server上分别配置LVS+Keepalived LVS

CentOS6.5安装DRBD+MariaDB+Heartbeat实现数据库集群高可用

本实验使用两台服务器搭建: 系统                  CentOS6.5 tese02              IP:192.168.1.244 test03               IP:192.168.1.245 DRBD               版本:8.4.6 DRBD-UTIL       版本:8.9.2 MariaDB           版本:10.0.17 Heartbeat         版本:3.0.4 VIP                  

heartbeat v2版CRM的高可用web集群的实现

上篇文章:heartbeat v1版CRM的高可用集群的实现 集群架构图 : 主节点(172.16.31.10) 客户端(172.16.31.12) Vitual IP(172.16.31.166)                            NFS IP(172.16.31.12) 从节点(172.16.31.11) 注:心跳信息传递借助eth0网卡实现 网络以及IP地址规划如下所示: 节点类型     IP地址规划          主机名      类型 主用节点     eth

heartbeat+iscsi+mysql实现双机高可用

8.heartbeat+iscsi+mysql实现双机高可用 虚拟地址的迁移 iscsi提供存储共享 (mysql 是application  也可以是ftp web等) 在iscsi服务器上:10.0.2.220 必修有两块磁盘./dev/sdb是用来共享的.   (1)安装iscsi服务器端软件    # yum install scsi-target-utils        (2)设置配置文件进行iscsi共享    # vim /etc/tgt/targets.conf    <tar

搭建LVS(DR模式)+Keepalived高可用群集,可跟做!!!

Keepalived的设计目标就是构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器.管理服务器池,而不仅仅用作双机热备.使用Keepalived构建LVS群集更加简便易用,主要优势体现在,对LVS负载调度器实现热备切换.提高可用性,对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入. 在基于LVS(DR模式)+Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,两台以上的节点服务器,本次实验以DR模式的LVS群集为基础,增加一台负载

利用heartbeat的ldirectord实现ipvs的高可用集群构建

集群架构拓扑图: 网络规划: 两台LVS server:(两台LVS也可以为用户提供错误页面) node1:172.16.31.10 node2:172.16.31.11 VIP:172.16.31.180 ipvs规则内包含2台Real Server:(后面的RS指的就是后端的web服务器) rs1:172.16.31.13 rs2:172.16.31.14 我们还需要错误页面提供者:我们选择LVS作为sorry server,所有的real server不可用时就指向这个sorry serv

lvs DR模式 +keepalived 实现directory 高可用、httpd服务负载均衡集群

功能: lvs+keepalived高可用负载均衡集群中: ·keepalived负责后端real server健康状态检查 如果一台real server服务出现故障,则会从集群服务中剔除,等恢复之后再自动加入到集群. ·keepalived负责负载均衡器(directory server)高可用 A和B两台虚拟机装lvs+keepalived(主)和lvs+keepalived(备),但是对外表现为一个虚拟IP,主服务器会发送消息给备服务器,当备服务器收不到消息的时候,认为主出现故障,然后接

基于heartbeat V2 crm 的lamp高可用

  实验环境: 虚拟机ha1:192.168.61.130 虚拟机ha2:192.168.61.132 虚拟机nfsserver:192.168.61.136 vip:192.168.61.100 目的: 使用heartbeat V2 crm(hb_gui)实现lamp+nfs+wordpress的高可用. 为了实验简便,lamp环境直接用yum配置,配置好的mysql数据库存放位置再重新挂载到nfs 注意事项: (a) .节点间时间必须同步:使用ntp协议实现: 服务端/etc/ntp.con