高可用集群实验二:keepalived+lvs实现故障自迁移

一、承接上一篇文章,按上面拓扑做修改:

1.新增一台Director,eth1的IP 192.168.1.5

2.旧Director添加一起网卡eth0(IP 10.0.0.1/24)直连新Director的eth0(IP 10.0.0.2/24)

3.删除.旧Director的eth1:0

二、两台Director都进行以下操作:

1.关闭ipvsadm:

chkconfig ipvsadm off

service ipvsadm off

2..通过ssh-keygen互信

ssh-keygen -t rsa -f ~/.ssh/idrsa -P ‘‘
    ssh-copy-id -i .ssh/idrsa.pub [email protected]

3..安装keepalived

yum -i install keepalvied

4.设置配置文件

注意:

(1)红框是在backup的director上要进行修改的。

(2)所有大括号前必须有空格,否则会有异常,且不好排查。

vim /etc/keepalived/keepalived.conf

5.创建状态变化运行的脚本(可根据实际需要创建,这里只提供一个测试例子)

vim /etc/keepalived/status.sh

#!/bin/bash

echo "`date ‘+%F %T’`$1 change status to $2 " >>/etc/keepalived/status.txt

chmod +x /etc/keepalived/stauts.sh

6.启动服务

service keepalived start

chkconfig keepalived on

一开始旧Director为master

实验:

  1. 在旧Director上创建文件(touch /etc/keepalived/down)则会变成backup(优先级由原来的100变成了90),并且系统自动运行脚本    /etc/keepalived/status.sh 192.168.1.1 backup ,自动将状态改变写进status.txt文件里,就可通过tail -f /etc/keepalived/status.txt 查看当前keepalived的模式状态
  2. rm -f  /etc/keepalived/down ,则旧Director又变成master
  3. 将旧Director的eth1断开,则旧Director又变成master,而新Director变成fault
  4. 在httpd服务器上将主页移走:mv index.html index.html.bak ,Director的上ipvsadm可以看到将此httpd服务器移除。
时间: 2024-10-17 06:39:49

高可用集群实验二:keepalived+lvs实现故障自迁移的相关文章

简单的高可用集群实验

前言: 上文介绍了高可用集群的基本概念,下面让我们来试试用两台提供web服务的虚拟机来实现一个小小的高可用集群吧- 首先,配置一个高可用集群的前提有: 1.至少两个节点: 2.共享存储(为了提供的页面一致,需要在后端用某些机制来实现.这里我们就做个简单的实验,后端存储先不考虑.先让这两个节点各自提供一个不同的页面,方便我们知道哪台在提供服务): 3.STONIN(共享存储时为了避免争用资源,指挥特定的设备,如电源交换机等避免共享存储的崩溃,所以一般的集群都得需要这个否则它会不工作的哦~~这里我们

Mongodb3.4.7搭建高可用集群(二)

部署Mongodb高可用集群 准备 按照官方说明,至少需要3个config server,2个mongos,2个shard,每个shard至少2个副本,就是4个shard,共需要9个Mongodb实例.这里只虚拟出2个机器节点,将不同的Mongodb实例部署在不同的端口上模拟实现. 节点端口关系表 config server leo.zhi.1:10010,leo.zhi.2:10010 mongos server leo.zhi.1:10020,leo.zhi.2:10020 shard se

高可用集群技术之keepalived实现lvs高可用并负载均衡web服务

Keepalived概述: Keepalived的作用是检测服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的服务器从系统中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后Keepalived自动将服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的服务器. keepalived实现lvs高可用并负载均衡web服务: 准备工作: 2台keepalived节点为: node1.samlee.com

Linux系统高可用集群软件之Keepalived

Keepalived 集群软件是一个基于VRRP协议来实现的LVS(四层协议)服务高可用方案,可以利用避免单节点故障.LVS服务需要有2台服务器运行Keepalived服务,一台为主服务器(MASTER),一台为备份服务器(BACKUP),但是对外只有一个虚拟IP,主服务器会发送特定的消息给备份服务器,当备份服务器收不到这个消息的时候,备份服务器认为主服务器宕机并会接管虚拟IP提供服务,从而保证了服务的高可用性. 1.环境说明 系统:Centos 6.5 64位 软件:Keepalived ip

mysql高可用架构方案之二(keepalived+lvs+读写分离+负载均衡)

mysql主从复制与lvs+keepalived实现负载高可用 目录 1.前言    4 2.原理    4 2.1.概要介绍    4 2.2.工作原理    4 2.3.实际作用    4 3方案    4 3.1.环境    4 3.2.架构图    5 3.3.设计原理    6 4.相关软件安装    6 4.配置mysql的主从    7 5.通过lvs+keepalived实现负载与热备,并实现读写分离    8 1.前言 最近研究了下高可用的东西,这里总结一下mysql主从复制读

高可用集群实验三:pacemaker+corosync

在前一篇文章的拓扑中将两台Director去掉后进行以下操作. 两台服务器上ssh互信ssh-keygen -t rsa -f ~/.ssh/id_rsa -P ''ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected] yum -y install pacemaker#在centos 6.4 上,yum安装pacemaker时会自动安装corosync 在Server1上:1.改配置文件:cd /etc/corosynccp corosync.co

高可用集群实验四:DRBD+corosync+pacemaker

在上一篇文章基础上,在两台服务器上添加DRBD,并通过corosync+pacemaker来启动: 先说明一下:实验中用的操作系统为CentOS 6.4 (内核版本为2.6.32-358.e16.x86_64),并没有自带drbd内核模块(2.6.33开始才有自带),需要自己添加.而网上找到的rpm包对CentOS 6.4的识别有问题,一直提示需要2.6.32-358.e16.x86_64的内核(实际上本身就是这个版本),网上也有其它人说在CentOS6.4上装有问题.所以下面的例子就不通过rp

基于Keepalived实现LVS双主高可用集群

前言 前面说过基于heartbeat的LVS高可用方案,今天带来另一种解决方案:基于Keepalived实现LVS双主高可用集群.什么是Keepalived呢,keepalived观其名可知,保持存活,在网络里面就是保持在线了, 也就是所谓的高可用或热备,用来防止单点故障的发生.本文将详细讲述Keepalived工作原理及高可用解决方案的实现. 相关介绍 Keepalived简介 Keepalived采用VRRP(virtual router redundancy protocol,虚拟路由冗余

基于Keepalived高可用集群的MariaDB读写分离机制实现

一 MariaDB读写分离机制 在实现读写分离机制之前先理解一下三种主从复制方式:1.异步复制:MariaDB默认的复制即是异步的,主库在执行完客户端提交的事务后会立即将结果返给给客户端,并不关心从库是否已经接收并处理,这样就会有一个问题,主节点如果挂掉了,此时主上已经提交的事务可能并没有传到从上,如果此时,强行将从提升为主,可能导致新主上的数据不完整.2.全同步复制:指当主库执行完一个事务,所有的从库都执行了该事务才返回给客户端.因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必