HA集群

//硬件准备:

1.两个机器,相同系统

2.网卡ip为:aming   192.168.11.24
           aming1  192.168.11.23
//实验准备:

1. hostname : aming , aming1

2. 关闭防火墙 : iptables -F

        setenforce 0

3. 更改hosts  : vi /etc/hosts

        192.168.11.24 aming
        192.168.11.23 aming1 

4. 安装epel扩展源:  rpm -ivh  ‘http://www.lishiming.net/data/attachment/forum/epel-release-6-8_32.noarch.rpm‘

5. 主从都安装heartbeat / libnet / nginx
yum install -y heartbeat* libnet nginx
 //实验时需要的

一、 两个机器的网卡需要相同 ,不管是eth0还是eth1。但如果是克隆出来的虚拟机,则网卡一个为eth0,一个为eth1.所以需要设置

在eth1的虚拟机中做下列的步骤
1、在/etc/grub.conf 里增加biosdevname=0的启动参数,形如
kernel /vmlinuz-2.6.32-131.21.1.el6.i686 ro root=/dev/mapper/vg_test-lv_root rd_LVM_LV=vg_test/lv_root rd_LVM_LV=vg_test/lv_swap rd_NO_LUKS rd_NO_MD rd_NO_DM LANG=en_US.UTF-8 SYSFONT=latar 

--将此行复制在上行的下方
cyrheb-sun16 KEYBOARDTYPE=pc KEYTABLE=us crashkernel=auto rhgb quiet biosdevname=0 

2、删除udev的配置文件rm -f /etc/udev/rules.d/70-persistent-net.rules
3、把网卡配置文件改名
mv ifcfg-em1 ifcfg-eth0
4、把网卡配置文件内容修正,把em1的全部改成eth0
可以使用 perl -p -i -e ‘s/em1/eth0/g‘ ifcfg-eth0 或
sed -i ‘s/em1/eth0/g‘ ifcfg-eth0 进行替换。
5、重启系统即可

二、两个机器之间 拷贝文件 scp

安装:
--> yum install openssh-clients
主 和从都需要安装
//主上配置
[[email protected] ~]# cd /usr/share/doc/heartbeat-3.0.4/
[[email protected] /heartbeat-3.0.4]# cp  authkeys  ha.cf haresources   /etc/ha.d/
[[email protected] /heartbeat-3.0.4]# cd /etc/ha.d
[[email protected] ha.d]# vi  authkeys
//此配置文件 是主从进行通信的  要时时检测是否有当掉的迹象
//文件最尾处
将
#auth 1    //1 ,2 ,3表示通信的加密程度
#1 crc {最简单}
#2 sha1 HI! {最复杂}
#3 md5 Hello!  {第二简单} 

改为
auth 3 //选择中间值
#1 crc
#2 sha1 HI!
3 md5 Hello!
[[email protected] ha.d]# chmod 600 authkeys
[[email protected] ha.d]# vi  haresources
//这里如果做了nfs共享存储 也可以配置在这里
//加入
aming 192.168.11.10/24/eth1:0 nginx

/*第一段 master的主机名*/
/*第二段 流动ip,实验时用同网段的*/
/*eth1:0 这个根据主机的网卡设置,主机为eth0则设置为eth0:n,n自定义*/
/*nginx 为哪一个提供服务 意义为如果主的nginx服务down掉以后,从会启动继续提供服务*/

<--流动ip--->
主和从都有自己的 ip ,但当主宕机时 ,主的ip不能跑到从去

即vip ,主运行时,流动ip在主,从运行时,则流动ip在从。
<-->

[[email protected] ~]# vi ha.cf
//改为
debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility     local0
keepalive 2
deadtime 30
warntime 10
initdead 60
udpport 694
ucast eth1 192.168.11.23
auto_failback on
node    aming
node    aming1
ping 192.168.11.1
respawn hacluster /usr/lib/heartbeat/ipfail 

//将主上配置文件拷贝到从上
[[email protected] ~]# cd /etc/ha.d/
[[email protected] ha.d]# scp authkeys ha.cf haresources aming1:/etc/ha.d/ 
//在从上编辑
[[email protected] ~]# vi /etc/ha.d/ha.cf
//只需要改一个地方,将此处的slave的ip改为master的ip
ucast eth1 192.168.11.23  改为   ucast eth1 192.168.11.24

//启动 heartbeat
//先主,后从
[[email protected] ~]# service heartbeat start
//检查测试

ifconfig 看是否有 eth1:0  /   ip add 命令看是否多了 eth1:0
ps aux |grep nginx  看是否有nginx进程

//测试
1.主上对nginx的页面进行设置
echo "1111master" > /usr/share/nginx/html/index.html 

去浏览器访问 http://192.168.11.10{流动ip}/  页面会显示 1111master

从上也设置 echo "2222slave" > /usr/share/nginx/html/index.html 

设置规则 iptables -A INPUT -p icmp -j DROP
查看heartbeat日志  tail /var/log/ha-log    tail -f /var/log/ha-log
看到master停掉 ,转给slave运行

再打开浏览器 页面变成了 2222slave

则说明设置成功

2.主上故意禁ping
iptables -I INPUT -p icmp -j DROP

--主上的当掉了,从上还可以用
时间: 2024-10-28 04:13:23

HA集群的相关文章

HA集群之DRBD实现MySQL高可用

一.前言 本篇博文只是实现Corosync + Pacemaker + DRBD + MySQL,实现MySQL的高可用.更多的基础知识在前几篇博文中已有涉猎,故更多的理论细节将不再此篇中详述. 若想了解高可用基础知识,请参考:http://hoolee.blog.51cto.com/7934938/1406951 若想了解Corosync + Pacemaker,请参考:http://hoolee.blog.51cto.com/7934938/1409395 若想了解DRBD,请参考:http

架构之高可用性(HA)集群(Keepalived)

Keepalived简介 Keepalived是Linux下一个轻量级别的高可用解决方案.高可用(High Avalilability,HA),其实两种不同的含义:广义来讲,是指整个系统的高可用行,狭义的来讲就是之主机的冗余和接管, 它与HeartBeat RoseHA 实现相同类似的功能,都可以实现服务或者网络的高可用,但是又有差别,HeartBeat是一个专业的.功能完善的高可用软件,它提供了HA 软件所需的基本功能,比如:心跳检测.资源接管,检测集群中的服务,在集群节点转移共享IP地址的所

HA集群配置

HA(high available)即高可用,又被叫做双机热备,用于关键性业务.简单理解就是,有两台机器A 和B,正常是A提供服务,B待命闲置,当A宕机或服务宕掉,会切换至B机器继续提供服务.常用实现高可用的开源软件有heartbeat和keepalived,其中keepalived有负载均衡的功能. 下面我们使用heartbeat来做HA集群,并且把nginx服务作为HA对应的服务. 一.准备工作  两个机器操作系统都是centos6.5,网卡eth0 ip分别为: master  192.1

HA集群之DRBD浅析及实现DRBD高可用

一.DRBD概述 DRBD (Distributed Replicated Block Device) 是 Linux 平台上的分散式储存系统. 由内核模组.用户空间工具组成,通常用于高可用性(high availability, HA)集群.其实现方式是通过网络在服务器之间的对块设备(硬盘,分区,逻辑卷等)进行镜像.你可以把它看作是一种网络RAID1. DRBD的工作模式如下图: DRBD工作的位置在文件系统的buffer cache和磁盘调度器之间,数据进入Buffer Cache后,DRB

HA集群之CoroSync+Pacemaker浅析及实现

一.CoroSync corosync最初只是用来演示OpenAIS集群框架接口规范的一个应用,可以说corosync是OpenAIS的一部分,然而后面的发展超越了官方最初的设想,越来越多的厂商尝试使用corosync作为集群解决方案.如Redhat的RHCS集群套件就是基于corosync实现. corosync只提供了message layer(即实现HeartBeat + CCM),而没有直接提供CRM,一般使用Pacemaker进行资源管理. OpenAIS是基于SA Forum 标准的

使用QJM部署HDFS HA集群

一.所需软件 1. JDK版本 下载地址:http://www.oracle.com/technetwork/java/javase/index.html 版本: jdk-7u79-linux-x64.gz 2. Hadoop软件 下载地址:http://hadoop.apache.org/releases.html 版本: hadoop-2.6.0.tar.gz 二.配置ssh免密码登陆: 查阅之前博客:http://www.cnblogs.com/yinchengzhe/p/4967928.

Linux系统架构(LB—HA集群)-HA集群配置

HA集群配置 准备两台设备,分别为主从 主: [[email protected] ~]# ifconfig eth0       inet addr:192.168.137.21 从: [[email protected] ~]# ifconfig eth0      inet addr:192.168.137.23 先开始配置 主上: [[email protected] ~]# hostname master [[email protected] ~]# iptables -F [[ema

HA集群之Heartbeat v1 高可用安装讲解

什么是高可用集群        高可用集群是指一组通过硬件和软件连接起来的独立计算机,它们在用户面前表现为一个单一系统,在这样的一组计算机系统内部的一个或者多个节点停止工作,服务会从故障节点切换到正常工作的节点上运行,不会引起服务中断.从这个定义可以看出,集群必须检测节点和服务何时失效,何时恢复为可用.这个任务通常由一组被称为"心跳"的代码完成.在Linux-HA里这个功能由一个叫做heartbeat的程序完成. Heartbeat简介        Heartbeat是Linux-H

corosync+pacemaker实现高可用(HA)集群

corosync+pacemaker实现高可用(HA)集群(一) ????重要概念 在准备部署HA集群前,需要对其涉及的大量的概念有一个初步的了解,这样在实际部署配置时,才不至于不知所云 资源.服务与主机(又称节点)的关系: 资源包括vip,httpd,filesystem等: 可整合多个资源形成一个服务: 服务必运行在某个主机上,主机上也可不运行服务(此为空闲主机): 服务里的所有资源应该同时运行在同一个节点上,实现方式有2种: 资源组: 排列约束 资源类型 primitive(或native

高可用(HA)集群原理概述

一.高可用集群(High Availability Cluster) 集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源.每一个单个的计算机系统都叫集群节点(node).随着业务的增长,集群通过添加新的节点,满足资源的高可扩展性. 计算机硬件和软件易错性不可避免,这样在节点上的服务会不可避免的中断.高可用集群的出现是为保证即使节点失效,而服务能不中断. 高可用集群在一组计算机中,采用主备模式,主节点提供服务,备节点等待:一旦,主节点失效,备节点无需人工的无缝取代主节点提