1.2-HA集群配置-2

配置文件

首先复制样例到指定目录

cd /usr/share/doc/heartbeat-3.0.4/

cp ha.cf authkeys haresources /etc/ha.d/

cd /etc/ha.d/

1.首先编辑authkeys  #用来主从验证通讯,对方是否存活。而且是加密通讯。

vim authkeys

其中

123代表加密程度,1最简单,2md5复杂,3sha最复杂

#auth 1

#1 crc

#2 sha1 HI!

#3 md5 Hello!

比如我们选2,首先auth 3去掉注释,1改3,同时把3的md5这一行去掉注释,如:

auth 3

#1 crc

#2 sha1 HI!

3 md5 Hello!

保存退出后,chmod修改此文件权限为600,只允许root用户读取。不修改权限,heartbaet启动不了。

2.然后编辑haresources文件,此文件为全部注释。需要打开并修改如下一行即可:

#node1  10.0.0.170 Filesystem::/dev/sda1::/data1::ext2

改为

wyp  192.168.1.80/24/eth0:1 nginx

wyp为主节点hostname, 192.168.1.80为虚拟IP和虚拟网卡 后面为启动的资源,如我们要做nginx的高可用,也可以用NFS的网络共享存储。

3.最后编辑ha.cf 次文件大多是注释掉的,去掉注释后剩下一下几行

vim ha.cf

改为如下内容:

debugfile /var/log/ha-debug

logfile /var/log/ha-log

logfacility local0

keepalive 2

deadtime 30

warntime 10

initdead 60

udpport 694

ucast eth0 192.168.1.70

auto_failback on

node wyp

node client

ping 192.168.1.1

respawn hacluster /usr/lib/heartbeat/ipfail

配置说明:

debugfile /var/log/ha-debug:该文件保存 heartbeat 的调试信息

logfile /var/log/ha-log:heartbeat 的日志文件,和上面记录信息差不多

logfacility local0  关于日志的级别

keepalive 2:心跳的时间间隔,默认时间单位为秒,探测时间。

deadtime 30:超出该时间间隔未收到对方节点的心跳,则认为对方已经死亡。

warntime 10:超出该时间间隔未收到对方节点的心跳,则发出警告并记录到日志中。

initdead 60: 在某些系统上, 系统启动或重启之后需要经过一段时间网络才能正常工作,该选项用于解决这种情况产生的时间间隔。取值至少为 deadtime 的两倍。

udpport 694:设置广播通信使用的端口,694 为默认使用的端口号。

ucast eth0 192.168.2.70:设置对方机器心跳检测的网卡和 ip。也可用bcast广播来找。线上业务,建议用另外一块网卡来做心跳检测。而不是一块网卡来进行。

auto_failback on: heartbeat的两台主机分别为主节点和从节点。主节点在正常情况下占用资源并运行所有的服务, 遇到故障时把资源交给从节点并由从节点运行服务。 在该选项设为 on 的情况下,一旦主节点恢复运行,则自动获取资源并取代从节点,否则不取代从节点。

node 指定主和从,各占一行,主在上从在下。

ping 用来裁判地址,是否存活的检测地址。比较强势。而不是主机之间相互探测。

respawn hacluster /usr/lib/heartbeat/ipfail:指定与 heartbeat 一同启动和关闭的进程,该进程被自动监视,遇到故障则重新启动。最常用的进程是 ipfail,该进程用于检测和处理网络故障,需要配合 ping 语句指定的 ping node 来检测网络连接。如果你的系统是 64,请注意该文件的路径。

hacluster是指定运行/usr/lib/heartbeat/ipfail脚本的身份,此脚本用来检测网络连通性,对方是否存活。respawn为此脚本死掉后,重启这个脚本进程。

4.三个配置文件修改完成后,复制到从上去,做小修改

scp ha.cf authkeys haresources client:/etc/ha.d/

选择yes

由于此前hosts文件定义出错,修改好后,无法复制文件到从,提示秘钥文件改变,拒绝连接。可以删除/root/.ssh/known_hosts来重置。

从上authkeys haresources配置不动,只修改ha.cf一行

ucast eth0 192.168.1.70改为对方IP

ucast eth0 192.168.1.60

最后主从yum安装nginx,用来测试。

yum install -y nginx

课后答疑:

nginx不是个软件吗,怎么能用yum安装?而且我以前安装的nginx还在跑着呢,为什么还能yum安装?

答:所有的包都可以用yum或者源码安装。你源码安装的nginx和yum安装的不冲突。

时间: 2024-10-13 12:13:21

1.2-HA集群配置-2的相关文章

Linux系统架构(LB—HA集群)-HA集群配置

HA集群配置 准备两台设备,分别为主从 主: [[email protected] ~]# ifconfig eth0       inet addr:192.168.137.21 从: [[email protected] ~]# ifconfig eth0      inet addr:192.168.137.23 先开始配置 主上: [[email protected] ~]# hostname master [[email protected] ~]# iptables -F [[ema

HA集群配置

HA(high available)即高可用,又被叫做双机热备,用于关键性业务.简单理解就是,有两台机器A 和B,正常是A提供服务,B待命闲置,当A宕机或服务宕掉,会切换至B机器继续提供服务.常用实现高可用的开源软件有heartbeat和keepalived,其中keepalived有负载均衡的功能. 下面我们使用heartbeat来做HA集群,并且把nginx服务作为HA对应的服务. 一.准备工作  两个机器操作系统都是centos6.5,网卡eth0 ip分别为: master  192.1

【2016.04.04】HA集群配置

1.HA(High Availability)指的是通过尽量缩短因日常维护操作(计划)和突发的系统崩溃(非计划)所导致的停机时间,以提高系统和应用的可用性.它与被认为是不间断操作的容错技术有所不同.HA系统是目前企业防止核心计算机系统因故障停机的最有效手段.常使用"heartbeat"开源软件实现HA集群部署. 2.HA架构示意图 3.实验环境 [[email protected] ~]# ifconfig eth0 Link encap:Ethernet HWaddr 00:0C:2

生产环境下hadoop HA集群及Hbase HA集群配置

一.环境准备 操作系统版本:centos7 64位 hadoop版本:hadoop-2.7.3 hbase版本: hbase-1.2.4 1.机器及角色 IP 角色 192.168.11.131 Namenode DFSZKFailoverController ResourceManager Jobhistory HMaster QuorumPeerMain 192.168.11.132 Namenode DFSZKFailoverController HMaster QuorumPeerMai

HA集群配置 (nginx)

HA 即 (high available)高可用,又被叫做双机热备,用于关键性业务. 简单理解就是,有两台机器A和B,正常是A提供服务,B待命闲置,当A宕机或服务宕掉,会切换至B机器继续提供服务.常用实现高可用的开源软件有heartbeat和keepalived,其中keepalived有负载均衡的功能. HA == high available 主从,主宕机,从就起来.默认从上是不工作的. heartbeat ------> HA 关闭 防火墙 iptables -F getenforce 0

HA集群之keepalived详解/基于keepalived+LVS-DR构建HA主备模型(一)

一.理论部分:     keepalived是vrrp协议的实现:原生设计目的为高可用ipvs服务:keepalived能够配置文件中的定义生成ipvs规则:并能够对各RealServer的健康状态进行检测:  vrrp协议:虚拟冗余路由协议:早期只是主要在路由器上提供的一种非常简单的完成将多个物理设备组建成一个虚拟设备,并且在多个物理设备之间漂移地址一种协议:非常轻量化,性能非常好.而keepalived无非就是通过vrrp协议在Linux主机上通过一个守护进程,把Linux主机扮演成路由器,

最新Hadoop-2.7.2+hbase-1.2.0+zookeeper-3.4.8 HA高可用集群配置安装

Ip 主机名 程序 进程 192.168.128.11 h1 Jdk Hadoop hbase Namenode DFSZKFailoverController Hamster 192.168.128.12 h2 Jdk Hadoop hbase Namenode DFSZKFailoverController Hamster 192.168.128.13 h3 Jdk Hadoop resourceManager 192.168.128.14 h4 Jdk Hadoop resourceMan

基于Keepalived构建高可用集群配置实例(HA Cluster)

什么是集群 简单的讲集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源.这些单个的计算机系统就是集群的节点(node).一个理想的集群是,用户从来不会意识到集群系统底层的节点,在他/她们看来,集群是一个系统,而非多个计算机系统.并且集群系统的管理员可以随意增加和删改集群系统的节点. 关于更详细的高可用集群我们在后面再做详解,先来说说Keepalived Keepalived是什么 Keepalived是集群管理中保证集群高可用的一个服务软件,其功能类似于heartbea

Hadoop 2.6.0 HA高可用集群配置详解

1 Hadoop HA架构详解 1.1 HDFS HA背景 HDFS集群中NameNode 存在单点故障(SPOF).对于只有一个NameNode的集群,如果NameNode机器出现意外情况,将导致整个集群无法使用,直到NameNode 重新启动. 影响HDFS集群不可用主要包括以下两种情况:一是NameNode机器宕机,将导致集群不可用,重启NameNode之后才可使用:二是计划内的NameNode节点软件或硬件升级,导致集群在短时间内不可用. 为了解决上述问题,Hadoop给出了HDFS的高

HA集群详细配置和实例

一.集群的介绍 二.集群需要的软件 三.集群的配置 四.实例讲述集群 一.集群的介绍 集群的概念 集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能.可靠性.灵活性方面的相对较高的收益,其任务调度则是集群系统中的核心技术. 集群是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用于提高可用性和可缩放性. HA==high available 二台服务器