HAproxy+keepalived/pacemaker实现高可用,负载均衡技术

HAproxy+keepalived/pacemaker

Haproxy+keepalived的结合,实现负载均衡与高可用的完美结合,既解决了提供服务的负载均衡,又解决了作负载均衡器的单点故障问题。这样架构就很健壮了。

材料准备: keepalived-1.2.20.tar.gz

步骤:

#tar -zxf  keepalived-1.2.20.tar.gz    :解压源码包,进行编译安装

#cd   keepalived-1.2.20

#yum  install  -y  gcc  openssl-devel   :安装编译环境以及依赖性

#./configure--prefix=/usr/local/keepalived   :指定安装位置

# make  --->  make install

作相应文件位置的软件连,有些文件的位置不对。需要连接解决。

# ln -s  /usr/local/keepalived/etc/keepalived /etc/

# ln -s  /usr/local/keepalived/etc/rc.d/init.d/keepalived  /etc/init.d/

# ln -s  /usr/local/keepalived/etc/sysconfig/keepalived     /etc/sysconfig/

# ln -s  /usr/local/keepalived/bin/genhash    /bin/

#ln -s  /usr/local/keepalived/sbin/keepalived   /sbin/

#vim  keepalived.conf      :编辑keepalived的配置文件

vrrp_script check_haproxy {

script "/opt/check_haproxy.sh"   :这个脚本要自己写

interval 2             监控间隔为2s

weight 2                              权值为2

}

global_defs {    :定义全局定义

notification_email {

[email protected]       发邮件给本机root用户

}

notification_email_from [email protected]   邮件发送者

smtp_server 127.0.0.1

smtp_connect_timeout 30

router_id LVS_DEVEL

vrrp_skip_check_adv_addr

vrrp_strict

}

vrrp_instance VI_1 {

state MASTER

interface eth0

virtual_router_id 16

priority 100

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

172.25.10.200     :虚拟ip地址

}

track_script {

check_haproxy

}

}

MASTER Keepalived配置,BAKUP的配置还需要作两部分修改,1.state BACKUP   2.priority 50

还需要自己编写脚本:

#vim  /opt/check_haproxy.sh

#!/bin/bash

/etc/init.d/haproxy status &> /dev/null ||/etc/init.d/haproxy  restart&>/dev/null

if

[ $? -ne 0 ]

then

/etc/init.d/keepalived stop &> /dev/null

fi

#scp -r  keepalived/ [email protected]:/usr/local/

#scp  /opt/check_haproxy.sh  [email protected]:/opt/

#scp  keepalived.conf  [email protected]:/etc/keepalived/

#scp  haproxy.cfg  [email protected]:/etc/haproxy/

#/etc/init.d/keepalivedstart   :两边都启动keepalived服务。

即可实现高可用负载。用上面的步骤来,依次关闭realserver的服务和负载调度器。看是否会有接管服务。

实现haproxy+pacemaker的完美结合,和上面一样,也是为了解决单点故障和负载均衡问题。这种搭配更容易也更简单。

第二种方法:使用pacemaker

材料:crmsh-1.2.6-0.rc2.2.1.x86_64.rpm   pssh-2.3.1-2.1.x86_64.rpm

#yum install -y  crmsh-1.2.6-0.rc2.2.1.x86_64.rpm  :解决依赖性的pssh-2.3.1-2.1.x86_64.rpm

#yum install -y  pacemaker  安转pacemaker服务

#cd  /etc/corosync/

#cp  corosync.conf.example  corosync.conf    编辑corosync的配置文件

#vim  corosync.conf

totem {

version: 2

secauth: off

threads: 0

interface {

ringnumber: 0

bindnetaddr: 172.25.10.0     :修改此处的网段

mcastaddr: 226.94.1.1

mcastport: 2134         :组播地址端口号

ttl: 1

}

service {

name:pacemaker

ver:0

}

#scp  corosync.conf  [email protected]:/etc/corosync/  传给备份机

#/etc/init.d/corosync start    两边的主机corosync同时启动。

在haproxy1上输入#crm_mon进行监控,

在haproxy2上进行操作,添加虚拟ip和haproxy服务,并且加到同一个组里面。

# crm

> property  stonith-enabled=false   :去除脑裂,因为没有装fence机制,

>primitive  vip  ocf:heartbeat:IPaddr2params  ip=172.25.10.100  cidr_netmask=32 op monitor interval=30s

:添加VIP,并且监控时间为每个30s

>primitivehaproxy lsb:haproxy op monitor interval=30s

添加:haproxy服务,监控时间同样为30s

>  group  hell vip  haproxy

:将vip haproxy放到同一个组里面,组的名字叫做hell;

>commit       提交保存生效。

时间: 2024-10-04 05:58:12

HAproxy+keepalived/pacemaker实现高可用,负载均衡技术的相关文章

Haproxy+Keepalived搭建Weblogic高可用负载均衡集群

配置环境说明:   KVM虚拟机配置 用途 数量 IP地址 机器名 虚拟IP地址 硬件 内存3G  系统盘20G cpu 4核 Haproxykeepalived 2台 192.168.1.10192.168.1.20 Haserver01Haserver02 192.168.30192.168.40 内存6G  系统盘20G cpu 4核 Weblogic 4台 192.168.1.100192.168.1.150 192.168.1.200 192.168.1.250 Clusters01C

RHEL 5.4下部署LVS(DR)+keepalived实现高性能高可用负载均衡

原文地址:http://www.cnblogs.com/mchina/archive/2012/05/23/2514728.html 一.简介 LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一. 目前有三种IP负载均衡技术(VS/NAT.VS/TUN和VS/DR):十种调度算法(rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq). K

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡

一.系统环境 实验拓扑: 实验环境: Vmware 9.01 + Windows 8 x64 企业版+8G内存 虚拟机步骤: 1.安装一台CentOS 6.3 x64主机,内存为1GB,网络为NAT模式,注意检查Vmware中EDIT菜单下Virtual Network Editor中VMnet8 2. 加电,安装系统.基础知识了,不再多说,注意:选择英文而不要选择中文,选择是Basic Server模式,系统名称:LVS-MASTER 3.安装系统后,用root用户登录进去,执行 ifconf

CentOS 6.3下部署LVS(NAT模式)+keepalived实现高性能高可用负载均衡

一.简介 VS/NAT原理图: 二.系统环境 实验拓扑: 系统平台:CentOS 6.3 Kernel:2.6.32-279.el6.i686 LVS版本:ipvsadm-1.26 keepalived版本:keepalived-1.2.4 三.安装 0.安装LVS前系统需要安装popt-static,kernel-devel,make,gcc,openssl-devel,lftp,libnl*,popt* 1.在两台Director Server上分别配置LVS+Keepalived LVS

DNS+keepalived+lvs实现高可用负载均衡集群

1.目的: 部署两台lvs调度器并利用keepalived实现主主模型,DNS添加两条A记录指向lvs调度器实现轮询,最终实现高可用负载均衡集群效果 2.拓扑规划: 3.配置实践 (1)同步所有机器时间 在每台机器实行ntp同步: [[email protected] ~]# ntpdate 10.1.0.1 26 Oct 20:10:57 ntpdate[5533]: step time server 10.1.0.1 offset -32408.643564 sec (2)先配置RS,在RS

LVS+KeepAlived,RabbitMQ高可用负载均衡

最近团队准备对项目进行重构,其中用到了RabbitMQ,也考虑了几个方案,下边着重介绍在项目中即将采用的方案.关于RabbitMQ就不在这里详细说明,具体查看 RabbitMQ中文手册.直接看架构图: 如图所示: 前端采用keepalived+lvs实现高可用负载均衡, RabbitMQ HA 队列(镜像队列)进行消息队列结构复制.本方案中搭建两个节点,并且都是磁盘节点(所有节点状态保持一致,节点完全对等),只要有任何一个节点能够工作,RabbitMQ 集群对外就能提供服务.任务处理进程同时监控

LVS+Keepalived搭建MyCAT高可用负载均衡集群

LVS+Keepalived 介绍 LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.目前有三种IP负载均衡技术(VS/NAT.VS/TUN和VS/DR),十种调度算法(rrr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq). Keepalvied Keepalived在这里主要用作RealServer的健康状态检查以及Mast

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡【转】

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡 一.简介 VS/NAT原理图: 二.系统环境 实验拓扑: 系统平台:CentOS 6.3 Kernel:2.6.32-279.el6.i686 LVS版本:ipvsadm-1.26 keepalived版本:keepalived-1.2.4 三.安装 0.安装LVS前系统需要安装popt-static,kernel-devel,make,gcc,openssl-devel,lftp,libnl*,popt*

LVS-DR+keepalived 搭建web高可用负载均衡

实验环境 redhat6.5 2.6.32-431.el6.x86_64 keepalived-1.2.16版本 ipvsadm-1.26-2.el6.x86_64 所有的虚拟机  都  关闭防火墙和selinux  配置好了本地yum源 搭建要求是对LVS-DR模式的原理熟悉,先配置好LVS-DR所需的环境.这里的环境是配置VIP DIP DIP 在同一个网段,并在realserver的lo接口上做好了arp抑制.具体见后面的脚本 当keepalived和LVS结合时,注意不需要在direct