DRBD 数据镜像软件
一、DRBD介绍
1.1、数据镜像软件DRBD介绍
分布式块设备复制(Distributed Relicated Block Deivce,DRBD),是一种基于软件、基于网络的块复制存储解决方案,主要用于对服务器之间的磁盘、分区、逻辑卷等进行数据镜像,当用户将数据写入本地磁盘时,还会将数据发送到网络中另一台主机的磁盘上,这样的本地主机(主节点)与远程主机(备节点)的数据就可以保证实时同步,当本地主机出现问题,远程主机上还保留着一份相同的数据,可以继续使用,保证了数据的安全
1.2、DRBD的基本功能
DRBD的核心功能就是数据的镜像,其实现方式是通过网络来镜像整个磁盘设备或者磁盘分区,将一个节点的数据通过网络实时地传送到另外一个远程节点,保证两个节点间数据的一致性,这有点类似于一个网络RAID1的功能,对于DRBD数据镜像来说,它具有如下特点:
实时性: 当应用对磁盘数据有修改操作时,数据复制立即发生。
透明性: 应用程序的数据存储在镜像设备上是透明和独立的。数据可以存储在基于网络不同服务器上。
同步镜像: 当本地应用申请写操作时,同时也在远程主机上开始进行写操作
异步镜像: 当本地写操作已经完成时,才开始对远程主机上进行写操作。
1.3、DBRD的构成
DRBD是Linux内核存储层中的一个分布式存储系统,具体来说两部分构成,
(1) 一部分:内核模板,主要用于虚拟一个块设备;
(2) 一部分:是用户控件管理程序,主要用于和DRBD内核模块通信,以管理DRBD资源,
在DRBD中,资源主要包含DRBD设备,磁盘配置,网络配置等。
一个DRBD系统有两个以上的节点构成,分为主节点和备节点两个角色,在主节点上,可以对DRBD设备进行不受限制的读写操作,可以用初始化、创建、挂在文件系统,在备节点上,DRBD设备无法挂载,只能用来接收主节点发送过来的数据,也就是说备节点不能用于读写访问,这样的目的是保证数据缓冲区的一致性。
主用节点和备用节点不是一成不变的。可以通过手工的方式改变节点的角色,备用节点可以升级为主节点,主节点也降级为备节点。
DRBD设备在整个DRBD系统中位于物理块设备上,文件系统之下,在文件系统和物理磁盘之间形成了一个中间层,当用户在主节点的文件系统中写入数据时,数据被正式写入磁盘前会被DRBD系统截获,同时,DRBD在捕捉到有磁盘写入的操作时,就会通知用户控件管理程序把这些数据复制一份。写入远程主机的DRBD镜像,然后存入DRBD镜像所有映射的远程主机磁盘,
DRBD负责接收数据,把数据写到本地磁盘,然后发送给另一台主机,另一台主机再将数据存到自己的磁盘中,目前,DRBD每次只允许对一个节点进行读写访问,这对于通常的故障切换高可用性集群来讲已经足够用了,
1.4、DRBD与集群的关系
DRBD由两个或者两个以上节点构成,与HA集群类似,也有主节点和备节点之分,因而经常用于高可用集群和负载集群系统中作,由于DRBD系统是在IP网络运行,所以,在集群中使用DRBD作为共享存储设备,不需要任何硬件投资,可以节约很多成本,因为在价格上IP网络要比专用的存储网络更加经济。另外DRBD也可以用于数据备份、数据容灾等方面。
1.5、DRBD的主要特性
DRBD系统在实现数据镜像方面有很多有用的特性,我们可以根据自己的需求和应用环境,选择合适自己的功能特性。下面一次介绍DRBD几个非常重要的特性:
(1)、单主模式:
这是使用最频繁的一种模式,主要用于在高可用集群的数据存储方面,解决集中数据共享的问题,在这种模式下,集群中只有一个主节点可以对数据进行读写操作,可以用在这种模式下的文件系统有EXT3 EXT4 XFS等。
(2)、双主模式:
这种模式只能在DRBD8.0以后的版本使用,主要用于负载均衡集中,解决数据共享和一致性问题,在这种模式下,集群中存在两个主节点,由于两个主节点都有可能对数据进行并发操作的读写操作,因此单一的文件系统就无法满足需求了,因此需要共享的集群文件系统来解决并发读写问题,常用在这种模式下的文件系统有GFS,OCFS2等,通过集群文件系统的分布式锁机制就可以解决集群中两个主节点同时操作数据的问题。
(3)、复制模式
DRBD提供了三种不同的复制方式,分别是;
协议A: 只要本地磁盘写入已经完成,数据包已经在发送队列中,则认为一个写操作过程已经完成,
这种方式在远程节点故障或者网络故障时,可能造成数据丢失,因为要写入到远程节点的数据可能还在发送队列中。
协议B:只要本地磁盘写入已经完成,并且数据包已经到达远程节点,则认为一个写操作过程已经完成。
这种方式在远程节点发生故障时,肯能造成数据丢失。
协议C: 只有本地和远程节点的磁盘已经都确认了
写操作完成,则认为一个写操作过程已经完成,
这种方式没有任何数据丢失,就目前而已应用最多,最广泛的就是协议C,旦在此方式下磁盘的I/O的吞吐量依赖于网络带宽,建议在网络带宽比较好的情况下使用这种方式。
protocol C; #使用drbd的同步协议
(4)、传输的完整性校验
这个特性在DRBD8.20及以后版本中可以使用,DRBD使用MD5、SHA-1,或者CRC 32C等加密算法对信息进行终端到终端的完整性验证,利用这个特性,DRBD对每一个复制到远程节点数据都生成信息摘要,同时,远程节点也采用同样的方式对复制的数据块进行完整性验证,如果验证信息不对,就请求主节点重新发送,通过这种方式保证镜像数据的完整性和一致性。
(5)、脑裂通知和自动修复。
由于集群节点之间的网络连接临时故障、集群软件管理干预或者人为错误,导致DRBD两个节点都切换为主节点而断开连接,这就是DRBD的脑裂问题,发生脑裂意味着数据不能同步从主节点复制到备用节点,这样导致DRBD两个节点的数据不一致,并且无法合并。
在DRBD8.0以及更高的版本,实现了脑裂自动修复功能,在DRBD8.2.1之后。又实现了脑裂通知特性,在出现脑裂后,一般建议通过手工方式修复脑裂问题,
1.DRBD是什么? 2.DRBD有那些特点 3.DRBD有哪几种角色。4.DRBD集中模式,5.DRBD有集中复制模式?如何进行数据校验的?
二、DRBD安装
2.1、环境描述
系统版本:centos6.3 x64(内核2.6.32)
DRBD版本: DRBD-8.4.3
node1: 10.0.0.201(主机名:master)
node2: 10.0.0.202 (主机名:slave)
(node1)为仅主节点配置 Primary
(node2)为仅从节点配置Secondary
(node1,node2)为主从节点共同配置
2.2、服务器时间同步以及关闭防火墙Selinux
#/etc/init.d/iptables stop 关闭防火墙
#setenforce 0 关闭Selinux
# cat /etc/selinux/config
SELINUX=disabled
#ntpdate -u asia.pool.ntp.org 真实环境这样同步
# date –s “2014-09-24 15:55:33” 测试时间。临时可以这样同步,两台机器都迅速执行此命令
2.3、修改主机名
#:vim /etc/sysconfig/network 主节点 201
HOSTNAME=master
#:vim /etc/sysconfig/network 从节点202
HOSTNAME=slave
如果使用虚拟机器做测试。还没有增加硬盘的的话。请关闭虚拟机器。
开始增加一块硬盘,如果原有的虚拟机硬盘还有空间的话。拿出一块空间,做一个分区。也行。
2.4、所有节点增加硬盘
在主节点201 和从节点202上。划分增加的/dev/sdb 硬盘。进行分区
# fdisk /dev/sdb
分一个叫做/dev/sdb1分区出来。就可以。注意千万不要格式化它。划分出来就行了。不需要格式化。
2.5、所有的节点安装
在主节点201和从节点202上同时安装
# wget http://oss.linbit.com/drbd/8.4/drbd-8.4.3.tar.gz
# tar zxvf drbd-8.4.3.tar.gz
# cd drbd-8.4.3
# ./configure --prefix=/usr/local/drbd --with-km --with-heartbeat km代表开启内核模块
./configure命令中添加--with-heartbeat,安装完成后会在/usr/local/drbd/etc/ha.d /resource.d生成drbddisk和drbdupper文件,把这两个文件复制到/usr/local/heartbeat/etc/ha.d /resource.d目录,命令cp -R /usr/local/drbd/etc/ha.d/resource.d/* /etc/ha.d/resource.d。
# make KDIR=/usr/src/kernels/2.6.32-279.el6.x86_64/
# make install
# mkdir -p /usr/local/drbd/var/run/drbd
# cp /usr/local/drbd/etc/rc.d/init.d/drbd /etc/rc.d/init.d
# chkconfig --add drbd
# chkconfig drbd on
加载DRBD模块:
# modprobe drbd
查看DRBD模块是否加载到内核:
# lsmod |grep drbd
2.6、所有节点配置文件
在主节点201和从节点202 配置文件保持一致。
# /usr/local/drbd/etc/drbd.conf
drbd.conf 包含了2个类型的文件。为了方便起见全局配置和资源配置分开了。global_common.conf为固定全局配置文件,*.res 可以包含多个,跟Nginx虚拟机器一样。*.res 带包含了所有的资源文件。
(1) 修改全局配置文件:
global {
usage-count yes; #是否参加drbd的使用者统计,默认此选项为yes
# minor-count dialog-refresh disable-ip-verification
}
common {
protocol C; #使用drbd的同步协议
handlers {
# These are EXAMPLE handlers only.
# They may have severe implications,
# like hard resetting the node under certain circumstances.
# Be careful when chosing your poison.
pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; #默认是注释的开启来
pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; #默认是注释的开启来
local-io-error "/usr/lib/drbd/notify-io-error.sh; /usr/lib/drbd/notify-emergency-shutdown.sh; echo o > /proc/sysrq-trigger ; halt -f"; #默认是注释的开启来
# fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
# split-brain "/usr/lib/drbd/notify-split-brain.sh root";
# out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";
# before-resync-target "/usr/lib/drbd/snapshot-resync-target-lvm.sh -p 15 -- -c 16k";
# after-resync-target /usr/lib/drbd/unsnapshot-resync-target-lvm.sh;
}
startup {
# wfc-timeout degr-wfc-timeout outdated-wfc-timeout wait-after-sb
}
options {
# cpu-mask on-no-data-accessible
}
disk {
on-io-error detach; #配置I/O错误处理策略为分离
# size max-bio-bvecs on-io-error fencing disk-barrier disk-flushes
# disk-drain md-flushes resync-rate resync-after al-extents
# c-plan-ahead c-delay-target c-fill-target c-max-rate
# c-min-rate disk-timeout
}
net {
# protocol timeout max-epoch-size max-buffers unplug-watermark
# connect-int ping-int sndbuf-size rcvbuf-size ko-count
# allow-two-primaries cram-hmac-alg shared-secret after-sb-0pri
# after-sb-1pri after-sb-2pri always-asbp rr-conflict
# ping-timeout data-integrity-alg tcp-cork on-congestion
# congestion-fill congestion-extents csums-alg verify-alg
# use-rle
}
syncer {
rate 1024M; #设置主备节点同步时的网络速率
}
}
(2)创建资源配置文件
资源文件需要自己手工创建,目录是在/usr/local/drbd/etc/drbd.d下面
#cd /usr/local/drbd/etc/drbd.d
# vim drbd.res
resource r1 { #这个r1是定义资源的名字
on master{ #on开头,后面是主机名称
device /dev/drbd0; #drbd设备名称
disk /dev/sdb1; #drbd0使用的磁盘分区为sdb1
address 10.0.0.201:7789; #设置drbd监听地址与端口
meta-disk internal;
}
on slave{ #on开头,后面是主机名称
device /dev/drbd0; #drbd设备名称
disk /dev/sdb1; #drbd0使用的磁盘分区为sdb1
address 10.0.0.202:7789; #设置drbd监听地址与端口
meta-disk internal;
}
}
2.7、激活节点启动服务
在主节点201 从节点202 做同样的操作
(1)、激活和创建设备块
# mknod /dev/drbd0 b 147 0
# drbdadm create-md r1 资源名称为r1
等待片刻,显示success表示drbd块创建成功
Writing meta data...
initializing activity log
NOT initializing bitmap
New drbd meta data block successfully created.
(2)、如果卡主不动了。再次输入该命令:
# drbdadm create-md r1
成功激活r0
----------------
[need to type ‘yes‘ to confirm] yes
Writing meta data...
initializing activity log
NOT initializing bitmap
New drbd meta data block successfully created.
(3)、准备启动服务: 启动DRBD服务:(node1,node2)
注:需要主从共同启动方能生效
# service drbd start
(4)、查看状态:(node1,node2)
# cat /proc/drbd 或 # service drbd status
version: 8.4.3 (api:1/proto:86-101)
GIT-hash: 89a294209144b68adb3ee85a73221f964d3ee515 build by root@server.alvin.com,
2013-05-27 20:45:19
0: cs:Connected ro:Secondary/Secondary ds:Inconsistent/Inconsistent C r-----
ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:1060184
这里ro:Secondary/Secondary表示两台主机的状态都是备机状态,ds是磁盘状态,显示的状态内容为“不一致”,这是因为DRBD无法判断哪一方为主机,应以哪一方的磁盘数据作为标准
(5)授权节点201为,主节点
# drbdsetup /dev/drbd0 primary --force
(6)、分别查看主从DRBD状态:
(6.1)、(主节点201 node1)
# service drbd status
--------------------
drbd driver loaded OK; device status:
version: 8.4.3 (api:1/proto:86-101)
GIT-hash: 89a294209144b68adb3ee85a73221f964d3ee515 build by root@drbd1.example.com,
2013-05-27 20:45:19
m:res cs ro ds p mounted fstype
0:r0 Connected Primary/Secondary UpToDate/UpToDate C
===============================================================================
(6.2)、(从节点202 node2)
# service drbd status
drbd driver loaded OK; device status:
version: 8.4.3 (api:1/proto:86-101)
GIT-hash: 89a294209144b68adb3ee85a73221f964d3ee515 build by root@drbd2.example.com,
2013-05-27 20:49:06
m:res cs ro ds p mounted fstype
0:r0 Connected Secondary/Primary UpToDate/UpToDate C
---------------------
ro在主从服务器上分别显示 Primary/Secondary和Secondary/Primary
ds显示UpToDate/UpToDate
表示主从配置成功。
2.8、挂在drbd0设备(主节点201)
从刚才的状态上看到mounted和fstype参数为空,所以我们这步开始挂载DRBD到系统目录
# mkdir /data
# mkfs.ext4 /dev/drbd0
# mount /dev/drbd0 /data
注:Secondary节点上不允许对DRBD设备进行任何操作,包括只读,所有的读写操作只能在Primary节点上进行,只有当Primary节点挂掉时,Secondary节点才能提升为Primary节点继续工作
2.9、模拟DRBD1 故障,DRBD2()接管并提升为Primary
(1)、(节点201 node1) 故障
# cd /data
# touch 1 2 3 4 5
# cd ..
# umount /data
# drbdsetup /dev/drbd0 secondary 故障后。降级为从
注:这里实际生产环境若DRBD1宕机,在DRBD2状态信息中ro的值会显示为Secondary/Unknown,只需要进行DRBD提权操作即可。
# service drbd status
(节点202 node2 提权为主)
# drbdsetup /dev/drbd0 primary 提权为主
# mount /dev/drbd0 /data
# cd /data
# touch 6 7 8 9 10
# ls
1 10 2 3 4 5 6 7 8 9 lost+found
# service drbd status
不过如何保证DRBD主从结构的智能切换,实现高可用,这里就需要Heartbeat来实现了。
Heartbeat会在DRBD主端挂掉的情况下,自动切换从端为主端并自动挂载/data分区
总结: 这里是DRBD官方推荐的手动恢复方案:
假设你把Primary的eth0挡掉,然后直接在Secondary上进行主Primary主机的提升,并且mount上,你可能会发现在 Primary上测试考入的文件确实同步过来了,之后把Primary的eth0恢复后,看看有没有自动恢复 主从关系。经过查看,发现DRBD检测出了Split-Brain的状况,也就是两个节点都处于standalone状态,故障描述如下:Split- Brain detected,dropping connection! 这就是传说中的“脑裂”
(node2)
# drbdadm secondary r0
# drbdadm disconnect all
# drbdadm --discard-my-data connect r0
(node1)
# drbdadm disconnect all
# drbdadm connect r0
# drbdsetup /dev/drbd0 primary
三、DRBD+Heartbeat实现自动切换
3.1、HeartBeat介绍
Heartbeat 项目是 Linux-HA 工程的一个组成部分,它实现了一个高可用集群系统。心跳服务和集群通信是高可用集群的两个关键组件,在 Heartbeat 项目里,由 heartbeat 模块实现了这两个功能。下面描述了 heartbeat 模块的可靠消息通信机制,并对其实现原理做了一些介绍。
Ø HeartBeat的组成
Heartbeat内部结构由三大部分组成
(1)集群成员一致性管理模块(CCM)
CCM用于管理集群节点成员,同时管理成员之间的关系和节点间资源的分配。Heartbeat模块负责检测主次节点的运行状态,以决定节点是否失效。ha-logd模块用于记录集群中所有模块和服务的运行信息。
(2)本地资源管理器(LRM)
LRM负责本地资源的启动、停止和监控,一般由LRM守护进程lrmd和节点监控进程Stonith Daemon组成。lrmd守护进程负责节点间的通信;Stonith Daemon通常是一个Fence设备,主要用于监控节点状态,当一个节点出现问题时处于正常状态的节点会通过Fence设备将其重启或关机以释放IP、 磁盘等资源,始终保持资源被一个节点拥有,防止资源争用的发生。
REDHAT的fence device有两种,内部fence设备(如IBM RSAII卡,HP的iLO卡,Dell的DRAC,还有IPMI的设备等)和外部fence 设备(如UPS,SAN SWITCH,NETWORK SWITCH等)。
对于外部fence 设备,可以做拔电源的测试,因为备机可以接受到fence device返回的信号,备机可以正常接管服务,
对于内部fence 设备,不能做拔电源的测试,因为主机断电后,备机接受不到主板芯片做为fence device返备的信号,就不能接管服务,clustat会看到资源的属主是unknow,查看日志会看到持续报fence failed的信息
(3)集群资源管理模块(CRM)
CRM用于处理节点和资源之间的依赖关系,同时,管理节点对资源的使用,一般由CRM守护进程crmd、集群策略引擎和集群转移引擎3个部分组成。 集群策略引擎(Cluster policy engine)具体实施这些管理和依赖;集群转移引擎(Cluster transition engine)监控CRM模块的状态,当一个节点出现故障时,负责协调另一个节点上的进程进行合理的资源接管
。
Ø 原理:
heartbeat (Linux-HA)的工作原理:heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持 冗 余链路(心跳一般会接2条跳线,1条冗余),它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未收到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运 行在对方主机上的资源或者服务
3.2、HeartBeat安装
实验图:
首先将本地YUM源头配置。在安装外部YUM源头的RPM包,保持你的机器可以上网。
# rpm –vih epel-release-6-8.noarch.rpm
# yum –y install heartbeat*
3.2、复制heartbeat的配置文件
Heartbeat的配置主要涉及到ha.cf、haresources、authkeys这三个文件。其中ha.cf是主配置文件,haresource用来配置要让Heartbeat托管的服务,authkey是用来指定Heartbeat的认证方式,
#cp /usr/share/doc/heartbeat-3.0.4/ha.cf /etc/ha.d/
#cp /usr/share/doc/heartbeat-3.0.4/haresources /etc/ha.d/
#cp /usr/share/doc/heartbeat-3.0.4/authkeys /etc/ha.d
cp -R /usr/local/drbd/etc/ha.d/resource.d/* /etc/ha.d/resource.d
3.3、authkeys配置
· authkeys的配置方式:
# vim authkeys
auth 1 //认证序号1
1 crc //序号1 采用crc
auth 后面填写序号,可任意填写,但第二行开头必须为序号名,然后为验证方式,支持三种( crc md5 sha1 )方式验证,最后面是自定义密钥。
· 需要保证authkeys有相应的读写权限:
# chmod 600 /etc/heartbeat/ha.d/authkeys
3.4、ha.cf主配置文件
# vim /etc/ha.d/ha.cf
#
debugfile /var/log/ha-debug #调试日志文件
logfile /var/log/ha-log #系统运行日志文件
logfacility local0 #日志记录等级
keepalive 2 #心跳频率,2表示2秒;200ms则表示200毫秒
deadtime 10 #节点死亡时间,就是过了10秒后还没有收到心跳就认为主节点死亡
warntime 5 #告警时间
initdead 120 #初始化时间
udpport 694 #心跳信息传递的udp端口
#bcast eth1 #采用udp广播播来通知心跳,建议在备用节点不只一台时使用
#mcast eth1 225.0.0.1 694 1 0 #采用udp多播来通知心跳,建议在备用节点不只一台时使用
bcast eth2 #采用udp单播来通知心跳,注意:这一项在2个节点IP
auto_failback on
#如果主节点重新恢复过来,主节点将主动将资源抢占过来,如果为off,则只当备用节点当掉后,主节点才取回资源
watchdog /dev/watchdog
#看门狗。如果本节点在超过1分钟后还没有发出心跳,那么本节点自动重启
node master #主节点名称,与uname -n显示必须一致
node slave #备用节点名称
respawn hacluster /usr/lib64/heartbeat/ipfail #
apiauth ipfail gid=haclient uid=hacluster
[root@master ha.d]# clear
[root@master ha.d]# cat ha.cf
#
debugfile /var/log/ha-debug #调试日志文件
logfile /var/log/ha-log #系统运行日志文件
logfacility local0 #日志记录等级
keepalive 2 #心跳频率,2表示2秒;200ms则表示200毫秒
deadtime 10 #节点死亡时间,就是过了10秒后还没有收到心跳就认为主节点死亡
warntime 5 #告警时间
initdead 120 #初始化时间
udpport 694 #心跳信息传递的udp端口
#bcast eth1 #采用udp广播播来通知心跳,建议在备用节点不只一台时使用
#mcast eth1 225.0.0.1 694 1 0 #采用udp多播来通知心跳,建议在备用节点不只一台时使用
bcast eth2 #采用udp单播来通知心跳,注意:这一项在2个节点IP
auto_failback on
#如果主节点重新恢复过来,主节点将主动将资源抢占过来,如果为off,则只当备用节点当掉后,主节点才取回资源
watchdog /dev/watchdog
#看门狗。如果本节点在超过1分钟后还没有发出心跳,那么本节点自动重启
node master #主节点名称,与uname -n显示必须一致
node slave #备用节点名称
respawn hacluster /usr/lib64/heartbeat/ipfail #
apiauth ipfail gid=haclient uid=hacluster
3.5、haresources资源配置文件
# vim /etc/ha.d/haresources
master IPaddr::10.0.0.215/16/eth1:0 drbddisk::r1 Filesystem::/dev/drbd0::/data::ext4
master是HA集群的主节点的主机名字,
IPaddr为heartbeat自带的一个执行脚
10.0.0.215/16/eth1:0 指的VIP在主节点的eth1:0这个接口上运行。
drbddisk::r1 是drbd在编译的加参数—with-heartbeat所产生的资源切换脚本。r1代表资源名称为r1,跟drbd里面的*.res配置文件保持一致。
Filesystem::/dev/drbd0::/data::ext4 带表系统所挂在的设备和目录以及文件系统格式。
其它的格式写法举例子:
1. node1 IPaddr::192.168.60.200/24/eth0/ Filesystem:: /dev/sdb5::/webdata::ext3 httpd tomcat
其中,node1是HA集群的主节点,IPaddr为heartbeat自带的一个执行脚 步,Heartbeat首先将执行/etc/ha.d/resource.d/IPaddr 192.168.60.200/24 start的操作,也就是虚拟出一个子网掩码为255.255.255.0,IP为192.168.60.200的地址。此IP为Heartbeat对外 提供服务的网络地址,同时指定此IP使用的网络接口为eth0。接着,Heartbeat将执行共享磁盘分区的挂载操 作,"Filesystem::/dev/sdb5::/webdata::ext3"相当于在命令行下执行mount操作,即"mount -t ext3 /dev/sdb5 /webdata",最后依次启动httpd和Tomcat服务。
3.5、验证和测试。
启动主节点和从节点的heartbeat服务.
# /etc/init.d/heartbeat start
# ip add list 查看主节点是否有VIP?
# df –lh 查看/dev/drbd0 设备是否挂在成功?
验证是否可以资源接管?
在主上,将/etc/init.d/heatbeat 服务停止。然后看看从服务器是否可以快速接管?
# /etc/init.d/heartbeat stop
四、DRBD和HeartBeat问题
(1) 什么是DRBD,?
(2) DRBD由哪几部分组成?
(3) DRBD有哪几种模式?