RHEL6搭建 keepalived (HA) 任意单故障节点的高可用集群

搭建 keepalived (HA) 任意单故障节点的高可用集群


实验拓扑图

实验要求:

使用Keepalived实现web服务器的高可用

Web服务器IP地址分别为192.168.4.53和192.168.4.54

Web服务器53 为主服务器,Web服务器54为备服务器

Web服务器的VIP地址为192.168.4.251

客户端通过访问VIP地址访问Web页面

实验步骤:

实验准备

配置yum源

# service iptables stop            //关闭防火墙

# chkconfig iptables off            //关闭开机自启

# setenforce 0                            //设置SELinux 为宽松模式

配置WEB服务器  pc53 / pc54

#yum -y install httpd

#service httpd start

#chkconfig httpd on

[[email protected] ~] #echo " 192.168.4.53  " > /var/www/html/test.html

[[email protected] ~] #echo " 192.168.4.54 " > /var/www/html/test.html


1 在高可用集群主机上安装 keepalived

# yum list | grep keepalived

keepalived.x86_64                      1.2.13-5.el6_6                    LoadBalancer

# yum -y install keepalived

# rpm -qc keepalived

/etc/keepalived/keepalived.conf //主配置文件

/etc/sysconfig/keepalived

2 分别修改服务的主配置文件

# cp /etc/keepalived/keepalived.conf /root/ //备份主配置文件

[[email protected] ~]# vim /etc/keepalived/keepalived.conf

...

vrrp_instance webha {

state MASTER // 描述信息  MASTER为主服务器

interface eth0         // 定义网络接口

virtual_router_id 51          //主 备VRID号必须一致

priority 150 //服务器优先级

advert_int 1

authentication {

auth_type PASS         //验证方式

auth_pass 123456 //验证密码     主  备服务器密码必须一致

}

virtual_ipaddress {

192.168.4.251 //VIP地址

}

}

...         //为了方便实验 32行以下 可以全部删除

在一个一主多备的Keepalived集群中,“priority”值最大的将成为集群中的Master节点,而其他都是Backup节点。在Master节点发生故障后,Backup节点之间将进行“民主选举”,通过对节点优先级值“priority”和““weight”的计算,选出新的Master节点接管集群服务。

[[email protected] ~]# vim /etc/keepalived/keepalived.conf

...

vrrp_instance webha {

state BACKUP            // 描述信息 BACKUP为备用服务器

interface eth0

virtual_router_id 51

priority 100

advert_int 1

authentication {

auth_type PASS

auth_pass 123456

}

virtual_ipaddress {

192.168.4.251

}

}

...

//为了方便实验 32行以下 可以全部删除

3 分别启动keepalived服务

# service keepalived start //启动服务

4 在高可用集群主机上分别查看是否获取VIP地址

# ip addr show //查看主机上的虚拟IP地址

[[email protected] ~]# ip addr show | grep 192.168.4

inet 192.168.4.53/24 brd 192.168.4.255 scope global eth0

inet 192.168.4.251/32 scope global eth0

[[email protected] ~]# ip addr show | grep 192.168.4

inet 192.168.4.54/24 brd 192.168.4.255 scope global eth0

//客户端测试

# elinks --dump 192.168.4.251/test.html

192.168.4.53

# elinks --dump 192.168.4.251/test.html

192.168.4.53

模拟 主机53 故障  测试高可用

[[email protected] ~]# service keepalived stop

[[email protected] ~]# ip addr show | grep 192.168.4

inet 192.168.4.53/24 brd 192.168.4.255 scope global eth0

[[email protected] ~]# ip addr show | grep 192.168.4

inet 192.168.4.54/24 brd 192.168.4.255 scope global eth0

inet 192.168.4.251/32 scope global eth0

//客户端测试

# elinks --dump 192.168.4.251/test.html

192.168.4.54

# elinks --dump 192.168.4.251/test.html

192.168.4.54

模拟修复 主机53 故障

[[email protected] ~]# service keepalived start

[[email protected] ~]# ip addr show | grep 192.168.4

inet 192.168.4.53/24 brd 192.168.4.255 scope global eth0

inet 192.168.4.251/32 scope global eth0

[[email protected] ~]# ip addr show | grep 192.168.4

inet 192.168.4.54/24 brd 192.168.4.255 scope global eth0

//客户端测试

# elinks --dump 192.168.4.251/test.html

192.168.4.53

# elinks --dump 192.168.4.251/test.html

192.168.4.53

如果53 网站服务 停止 其VIP地址不会释放

可以通过脚本 监测当80端口 down 的时候 自动关闭 keepalived 服务

使用周期性计划任务 定时执行次脚本









原文地址:http://blog.51cto.com/13558754/2060950

时间: 2024-08-10 11:36:42

RHEL6搭建 keepalived (HA) 任意单故障节点的高可用集群的相关文章

六十一、集群介绍、keepalived介绍、用keepaliver配置高可用集群

一.集群介绍 根据功能划分为两大类:高可用和负载均衡. 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务 实现高可用的开源软件有:heartbeat.keepalived.heartbeat有很多bug,所以不再使用. 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2 实现负载均衡的开源软件有LVS.keepalived.hapr

keepalived构建LVS_DR和Nginx的高可用集群

keepalived原理.keepalived+LVS_DR及keepalived+Nginx的实现 一.keepalived和其工作原理: keepalived是一个类似于Layer2,4,7交换机制的软件.是Linux集群管理中保证集群高可用的一个服务软件,其功能是用来防止单点故障. keepalived的工作原理: keepalived是基于VRRP协议实现的保证集群高可用的一个服务软件,主要功能是实现真机的故障隔离和负载均衡器间的失败切换,防止单点故障.在了解keepalived原理之前

Haproxy+keepalived实现双主负载均衡高可用集群

项目说明 1.         使用LVS负载均衡用户请求到后端web服务器,并且实现健康状态检查 2.         使用keepalived高可用LVS,避免LVS单点故障 3.         集群中分别在LK-01和LK-02运行一个VIP地址,实现LVS双主 4.         用户通过DNS轮训的方式实现访问集群的负载均衡(不演示) 实验拓扑 环境介绍: IP地址 功能描述 HK-01 172.16.4.100 调度用户请求到后端web服务器,并且和LK-02互为备份 HK-02

生产环境模拟实现keepalived+Nginx调度器+httpd的高可用集群

具体过程是用Nginx做负载均衡,可以将Nginx和主机放在同一台机子上,也可以分开放置,只不过分开的话要指明RS是Nginx的主机地址.至于直接将虚拟地址配置在Nginx主机上我暂时还未成功 下面附上我的双主模型的主keepalived服务器的配置 ! Configuration File for keepalived global_defs {    notification_email {     [email protected]     vrrp_mcast_group4  224.0

keepalived做高可用集群

keepalived的作用: 主要用作RealServer的健康状态检查以及 LoadBalance主机和BackUP主机之间failover的实现. 使用keepalived软件部署网站HA集群:   能够实现任意单故障节点的高可用集群 一.前期准备 1.在两台网站服务器上安装keepalived软件(4.51,4.52) 2.查看配置的路径: rpm -qc keepalived /etc/keepalived/keepalived.conf /etc/sysconfig/keepalive

HA Cluster基础概念及实现高可用集群

HA Cluster高可用集群分以下几个步骤来说: 点我-->HA Cluster基础概念 点我-->heartbeat实现HA 点我-->corosync详解 点我-->pacemaker详解 点我-->DRBD详解 点我-->heartbeat基于crm进行资源管理 点我-->Corosync+Pacemaker+DRBD+MySQL 实现高可用(HA)的MySQL集群 点我-->Heartbeat+MySQL+NFS 实现高可用(HA)的MySQL集群

Linux HA Cluster高可用集群之HeartBeat2

一.阐述Linux HA Cluster的使用背景: 1.1 高可用集群定义: 高可用集群全称:High Availability Cluster,简单的说,集群就是一组高可扩展.高可用性.高性价比的计算机.它们作为一个整体向用户提供一组网络资源.其中单个的计算机系统就是一个集群的节点.高可用集群软件的主要作用就是实现故障检查和业务切换的自动化,以提供不中断的服务. 1.2 集群系统的主要优点: (1)高可扩展性:  (2)高可用性HA:集群中的一个节点失效,它的任务可传递给其他节点.可以有效防

HA cluster高可用集群原理

高可用集群,英文原文为High Availability Cluster,简称HA Cluster,高可用集群的出现是为了使集群的整体服务尽可能可用,从而减少由计算机硬件和软件易错性所带来的损失.如果某个节点失效,它的备援节点将在几秒钟的时间内接管它的职责.因此,对于用户而言,集群永远不会停机.高可用集群软件的主要作用就是实现故障检查和业务切换的自动化. 只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份.当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的

基于Keepalived构建高可用集群配置实例(HA Cluster)

什么是集群 简单的讲集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源.这些单个的计算机系统就是集群的节点(node).一个理想的集群是,用户从来不会意识到集群系统底层的节点,在他/她们看来,集群是一个系统,而非多个计算机系统.并且集群系统的管理员可以随意增加和删改集群系统的节点. 关于更详细的高可用集群我们在后面再做详解,先来说说Keepalived Keepalived是什么 Keepalived是集群管理中保证集群高可用的一个服务软件,其功能类似于heartbea