heartbeatv1 版讲解及实现nfs文件共享

高可用基础知识讲解

一、高可用集群的定义
  高可用集群,英文原文为High Availability Cluster,简称HACluster,简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统 就是集群的节点(node)。
  高可用集群的出现是为了使集群的整体服务尽可能可用,从而减少由计算机硬件和软件易错性所带来的损失。如果某个节点失效,它的备援节点将在几秒钟的时间内接管它的职责。因此,对于用户而言,集群永远不会停机。
  高可用集群软件的主要作用就是实现故障检查和业务切换的自动化。只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的 情况下,自动保证系统能持续对外提供服务。双机热备只是高可用集群的一种,高可用集群系统更可以支持两个以上的节点,提供比双机热备更多、更高级的功能,更能满足用户不断出现的需求变化。
二、高可用集群的衡量标准 
  HA(High Available), 高可用性群集是通过系统的可靠性(reliability)和可维护性(maintainability)来度量的。工程上,通常用平均无故障时间(MTTF)来度量系统的可靠性,用平均维修时间(MTTR)来度量系统的可维护性。于是可用性被定义为:HA=MTTF/(MTTF+MTTR)*100%
  具体HA衡量标准:
99% 一年宕机时间不超过4天

99.9% 一年宕机时间不超过10小时

99.99% 一年宕机时间不超过1小时

99.999% 一年宕机时间不超过6分钟

1.ccm组件(Cluster Consensus Menbership Service):作用,承上启下,监听底层接受的心跳信息,当监听不到心跳信息的时候就重新计算整个集群的票数和收敛状态信息,并将结果转递给上层,让上层做出决定采取怎样的措施,ccm还能够生成一个各节点状态的拓扑结构概览图,以本节点做为视角,保证该节点在特殊情况下能够采取对应的动作。
2.crmd组件(Cluster Resource Manager,集群资源管理器,也就是pacemaker):实现资源的分配,资源分配的每个动作都要通过crm来实现,是核心组建,每个节点上的crm都维护一个cib用来定义资源特定的属性,哪些资源定义在同一个节点上。
3.cib组件(集群信息基库,Cluster Infonation Base):是XML格式的配置文件,在内存中的一个XML格式的集群资源的配置文件,主要保存在文件中,工作的时候常驻在内存中并且需要通知给其它节点,只有DC上的cib才能进行修改,其他节点上的cib都是拷贝DC上。配置cib文件的方法有,基于命令行配置和基于前台的图形界面配置。
4.lrmd组件(Local Resource Manager,本地资源管理器):用来获取本地某个资源的状态,并且实现本地资源的管理,如当检测到对方没有心跳信息时,来启动本地的服务进程等。
5.pengine组件:
PE(Policy Engine):策略引擎,来定义资源转移的一整套转移方式,但只是做策略者,并不亲自来参加资源转移的过程,而是让TE来执行自己的策略。

TE(Transition Engine): 就是来执行PE做出的策略的并且只有DC上才运行PE和TE。

6.stonithd组件
  STONITH(Shoot The Other Node in the Head,”爆头“), 这种方式直接操作电源开关,当一个节点发生故障时,另 一个节点如果能侦测到,就会通过网络发出命令,控制故障节点的电源开关,通过暂时断电,而又上电的方式使故障节点被重启动, 这种方式需要硬件支持。
  STONITH应用案例(主从服务器),主服务器在某一端时间由于服务繁忙,没时间响应心跳信息,如果这个时候备用服务器一下子把服务资源抢过去,但是这个时候主服务器还没有宕掉,这样就会导致资源抢占,就这样用户在主从服务器上都能访问,如果仅仅是读操作还没事,要是有写的操作,那就会导致文件系统崩溃,这样一切都玩了,所以在资源抢占的时候,可以采用一定的隔离方法来实现,就是备用服务器抢占资源的时候,直接把主服务器给STONITH,就是我们常说的”爆头 ”。

五、高可用集群软件
Messaging and Membership Layer(信息与关系层):
heartbeat (v1,v2,v3),heartbeat v3 分拆  heartbeat pacemaker cluster-glue

corosync

cman

keepalived

ultramokey

Cluster Resource Manager Layer(资源管理层,简称:CRM):
haresource,crm (heartbeat v1/v2)

pacemaker (heartbeat v3/corosync)

rgmanager (cman)

常用组合:
heartbeat v2+haresource(或crm) (说明:一般常用于CentOS 5.X)

heartbeat v3+pacemaker (说明:一般常用于CentOS 6.X)

corosync+pacemaker (说明:现在最常用的组合)

cman + rgmanager (说明:红帽集群套件中的组件,还包括gfs2,clvm)

keepalived+lvs (说明:常用于lvs的高可用)

总结:我们经常在技术博客中看到,heartbeat+pacemaker实现mysql高可用,或corosync+pacemaker实现mysql高可用等,有的博友会问了,我们到底用什么好呢?经过上面的说明大家应该有所了解!

六、共享存储
  说到集群, 我们不得不说到,共享存储,因为不管理是Web高可用也,Mysql高可用也好,他们的数据都是共享的就一份,所有必须放在共享存储中,主节点能访问,从节点也能访问。下面我们就简单说一下共享存储。
1.DAS:(Direct attached storage)直接附加存储
说明:设备直接连接到主机总线上的,距离有限,而且还要重新挂载,之间有数据传输有延时
RAID 阵列

SCSI 阵列

2.NAS:(network attached storage)网络附加存储 
说明:文件级别的共享
NFS

FTP

CIFS

3.SAN:(storage area network)存储区域网络 
说明:块级别的,模拟的scsi协议
FC光网络(交换机的光接口超贵,一个差不多2万,如果使用这个,代价太高)

IPSAN(iscsi)存取快,块级别,廉价

七、集群文件系统与集群LVM(集群逻辑卷管理cLVM)
集群文件系统:gfs2、ocfs2
集群LVM:cLVM
注:一般用于高可用双主模型中(如下图)

八、高可用集群的工作原理
说明:这里主要以主/从节点的高可用来说明工作原理。
  主服务器和从服务器建立双机热备,基本上都是共享一个存储,以mysql为例。通常情况下,数据库文件挂载在主数据库服务器上,用户连接到主服务器上进行数据库操作。当主服务器出现故障时,从服务器就会自动挂载数据库文件,并接替主服务器的工作。用户在未通知的情况下,通过从数据库连接到数据库文件进行操作。等主服务器的故障修复之后,又可以重新提供服务;
  那么,从服务器是如何知道主服务器挂掉了呢,这就要使用一定的检测机制,如心跳检测,也就是说每一个节点都会定期向其他节点通知自己的心跳信息,尤其是主服务器,如果从服务器在几个心跳周期内(可自行设置心跳周期)还没有检测到的话,就认为主服务器宕掉了,而这期间在通告心跳信息当然不能使用tcp传输的,如果使用tcp检测,还要经过三次握手,等手握完了,不定经过几个心跳周期了,所以在检测心跳信息的时候采用的是udp的端口694来进行传递信息的,如果主服务器在某一端时间由于服务繁忙,没时间响应心跳信息,这个时候从服务器要是把主服务资源抢过去(共享数据文件),但是这个时候主服务器还没有宕掉,这样就会导致资源抢占,就这样用户在主从上都能访问,如果仅仅是读操作还没事,要是有写的操作,那就会导致文件系统崩溃,这样一切都玩了,所以在资源抢占的时候,可以采用一定的隔离方法来实现,就是从服务器抢占资源的时候,直接把主服务器给“STONITH”,就是我们常说的“爆头”;
  那么,我们又用什么方式来检测心跳信息呢?就是通过心跳线来检测。运行在从服务器上的Heartbeat可以通过以太网连接检测主服务器的运行状态,一旦其无法检测到主服务器的“心跳”则自动接管主服务器的资源。通常情况下,主、从服务器间的心跳连接是一个独立的物理连接,这个连接可以是串行线缆、一个由“交叉线”实现的以太网连接。Heartbeat甚至可同时通过多个物理连接检测主服务器的工作状态,而其只要能通过其中一个连接收到主服务器处于活动状态的信息,就会认为主服务器处于正常状态。从实践经验的角度来说,建议为Heartbeat配置多条独立的物理连,以避免Heartbeat通信线路本身存在单点故障。
  上面的原理中我们提到了“隔离方法”,下面我们来说一说,隔离方法有两种,一种是节点隔离,另一种是资源隔离。节点隔离就是我们常说的STONITH(Shoot The Other Node In the Head ,俗称“爆头”),意思就是直接切断电源;常用的方法是所有节点都接在一个电源交换机上,如果有故障,就直接导致该节点的电压不稳定,或断电,让有故障的节点重启或关闭。(如下图),而资源隔离,就是 fencing 直接把某种资源截获过来。

 

 

教室环境
首先先两台时间同步
ntpdate 172.16.0.1
保证两台机的时间同步

data -s mm/dd/yy hh/mm/ss

修改hostname
vim /etc/hosts
192.168.1.11 node1.www.dingchao.com node1
192.168.1.12 node2.www.dingchao.com node2
两边都修改,我们可以ping 一下node1 测试一下是不是本机ip地址

基于密钥认证两台机能相互不输入密码登录
ssh-keygen -t rsa
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]  可能会出错
我们可以用另外一条命令来复制
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]的ip地址就不会出错啦
两边都生成,发给对方,这里的话我们可以测试一下是否基于密钥认证成功
ssh node1.dingchao.com ‘date‘;date

软件安装很棘手
yum 安装四个包有依赖问题,所以只能先解决依赖
yum install perl-TimeDate PyXML libnet net-snmp-libs
这里的话安装libnet包没有,不知道咋办,以至于后面的包都无法安装
yum install heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm

cd ~

1、scp -r heartbeat2/ node2:/root
node2
一样安装软件
yum install perl-TimeDate PyXML libnet net-snmp-libs

yum install heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm

配置组播地址  224.0.1.0--238.255.255.255

grep  694  /etc/services

ha.cf  主配置文件
authkeys  认证密钥,其权限必须为组和它无权访问
haresources 用于资源的文件

cd /etc/ha.d
ls

cp /usr/share/doc/heartbeat-2.1.4/{ha.cf,haresources,authkeys} ./
chmod 600 authkeys

cd /etc/ha.cf

vim ha.cf
启用
logfile /var/log/ha-log 日志
ompression_threshold 2  压缩

mcast eth0  225.100.90.101 694 1 0  广播地址

node  node1.www.dingchao.com
node  node2.www.dingchao.com   配置节点

ping 172.16.0.1   一般为网关  ping网关

vim  authkeys      认证密钥

auth  2
2 sha1    xxxxx      随机码   openssl rand  -hex   8

vim  haresources

在  virtual
定义资源

主资源   vip(流动ip)/子网/网卡别名/广播地址 第二个资源   同进同退
node1.dingchao.com 172.16.100.23/16/eth0/172.16.255.255 httpd

确保有httpd 资源

定义资源ip脚本

/etc/ha.d/resource.d

IPaddr 和 IPaddr2

资源httpd的脚本
就是/etc/rc.d/init.d/httpd

scp -p ha.cf haresources authkeys node2:/etc/ha.d

节点二配置把节点一的脚本发过去给他就可以啦

vim /var/www/html/index.html 提供网页

测试一下  curl http://xxxxx
关闭服务  service httpd stop
开机不要启动 
chkconfig  httpd off

节点2 一样配置定义httpd资源

实验结果测试  
  主节点
service  heartbeat start
ss -unl  694
ssh  node2.dingchao.com ‘service heartbeat start‘
tail  -f  /var/log/ha-log
节点2上看 ss -unl  694
ifconfig  看流动ip 配置上去没有
service  heartbeat stop
网页测试是否成功

共享mysql网页给高可用web访问

172.16.1.143
vim /etc/exports
/www/html  172.16.0.0/16(no_root_squash,rw)

节点上挂载测试网页是否正常
mount -t nfs 172.16.1.143:/www/html /var/www/html
curl http://本机web服务

关闭全部节点上的 service heartbeat stop
重新定义资源
vim etc/ha.d/haresources
node1.dingchao.com 172.16.100.23/16/eth0/172.16.255.255 Filesystem::172.16.100.9:/var/www/html::/var/www/html::nfs  httpd

scp haresources node2:/etc/ha.d/
service haretbeat start
ssh node2.dingchao.com ‘service heartbeat start‘
mount

ifconfig
mount 
测试

离线一个节点
测试网页

重启此节点,再离线另一个节点测试
ss -unl

另外一个命令的使用

cd /usr/lib64/heartbeat

hb_standby
hb_takeover

heartbeat v2  配置

时间: 2024-10-13 11:34:35

heartbeatv1 版讲解及实现nfs文件共享的相关文章

Linux SMB和NFS文件共享

一.smb文件共享 1.安装和为smb添加用户 1.1安装smb软件 yum install samba samba-common samba-client-y systemctl start smb nmb systemctl enable smb nmb 1.2为smb添加用户 smb用户必须时本地用户 smbpasswd -a student New SMB password:      #输入smb当前用户密码 Retype new SMB password:  #确认密码   pdbe

NFS文件共享服务器搭建

1 实验方案 使用2台RHEL6虚拟机,其中一台作为NFS共享服务器(192.168.100.1).另外一台作为测试用的NFS客户机(192.168.100.2) 2.实现 2.1.配置NFS共享服务器. 1)安装软件包及创建共享目录. [[email protected] ~]# rpm -q rpcbind nfs-utils rpcbind-0.2.0-11.el6.x86_64 nfs-utils-1.2.3-36.el6.x86_64 [[email protected] ~]# mk

实战NFS文件共享存储详解

实战NFS文件共享存储详解 对Linux有兴趣的朋友加入QQ群:476794643 在线交流 本文防盗链:http://zhang789.blog.51cto.com 目录 NFS简介 NFS工作流程 使用NFS的好处 NFS应用环境 NFS服务器安装 NFS客户端配置 实例:创建web共享 NFS简介 NFS(Network File System)即网络文件系统,Sun公司开发,是FreeBSD支持的文件系统中的一种,它允许网络中的计算机之间通过TCP/IP网络共享资源.在NFS的应用中,本

《NFS文件共享服务的搭建》RHEL

首先要清楚一点:NFS服务的共享是建立在linux和linux之间的. 配置任何服务之前我们要做的2件事: iptables  -F setenforce 0    NFS服务内核防火墙影响不大,主要还是iptables 服务端: 安装nfs服务软件包: 启动nfs服务 下面说一个NFS服务起不来的解决方法,这个错误还是比较常见的. 报错:RPC.....问题,这个是因为我把rpc给关了: 把rpc打开重启下服务: 服务端共享出去/mnt对所有的主机(以只读的方式) 客户端 终端为白色 首先要识

RHEL6.4 NFS文件共享服务搭建

NFS文件共享服务 1 实验方案 使用2台RHEL6.4虚拟机,其中一台作为NFS共享服务器(192.168.100.1).另外一台作为测试用的NFS客户机(192.168.100.2) 2.实现 2.1.配置NFS共享服务器. 1)安装软件包及创建共享目录. [[email protected] ~]# rpm -q rpcbind nfs-utils rpcbind-0.2.0-11.el6.x86_64 nfs-utils-1.2.3-36.el6.x86_64 [[email prote

linux nfs文件共享

linux nfs文件共享 ◆一.概念 NFS是网络文件系统(Network File System)的简称,是分布式计算机系统的一个组成部分,可实现在异构网络上共享和装配远程文件系统. NFS由SUN公司开发,目前已成为文件服务的一种标准(RFC1904,RFC1813).其最大的功能就是可以通过网络,让不同操作系统的计算机可以共享数据,所以也可以看作是一个文件服务器.NFS是除了SAMBA之外Windows与Linux及Unix与Linux之间通信的方法. 理想条件下的NFS 网络拓扑结构

Linux 环境部署记录(二) - NFS文件共享

NFS文件共享服务 假设现有两台服务器IP地址分别为 192.168.0.2 和 192.168.0.3,192.168.0.2作为Server,192.168.0.3为Client,则: 两台机器都需要安装nfs-utils rpcbind: yum -y install nfs-utils rpcbind chkconfig nfs on chkconfig rpcbind on 开启防火墙端口111和2049: /sbin/iptables -I INPUT -p tcp --dport

NFS文件共享服务器的搭建

需求: 在多个不同机器上部署同一个tomcat做服务器负载均衡(nginx),每个tomcat实例都有上传静态自己的功能(比如图片).但是对外访问的时候,需要一个统一的出口.所以这里使用NFS文件共享服务. 搭建过程如下: NFS文件共享服务搭建 1.环境: NFS服务器地址:192.168.0.100 tomcat1地址:192.168.0.101 tomcat2地址:192.168.0.102 2.安装NFS服务器(192.168.0.100): sudo apt-get install n

NFS文件共享服务搭建(ubuntu-centos)

NFS文件共享服务搭建(ubuntu-centos) (2分钟搞定) NFS-文件共享服务器搭建 使用内网IP NFS-server:  内网IP 10.47.72.177 (Ubuntu 14) NFS-client:  内网IP  10.132.10.63(Centos 6.5) NFS-server:(前提已经更新为最新源) 安装: sudo apt-get install portmap sudo apt-get install nfs-kernel-server 配置: sudo vi