heartbeat+drbd

集群的常见问题
1.tgt首先在管理机上启动
50pxan 即是 “心跳传递(heartbest)集群管理软件”,这样集群的iscsi (iscsi是他的后台系统)才能起来
3.corosync heartbeat v1 v2 v3 keepalived vrrp(协议)["心跳版本"]

安全关闭集群 Leave Cluster (离开集群)

RHCS:


conga:luci ricci (web)
corysync(可以用来同步节点信息同步 日志)=camn(集群管理器)
rgmanager (集群资源管理器)
faildomian(故障切换域)
ccsd(集群配置服务)--cluster.conf  (保证集群文件同步)
1——corysync——2      3——iscsi——1     3——iscsi——2

heartbeat:(底层 对资源不能管理)

1.安装软件包:
heartbeat-3.0.4-2.el6.x86_64.rpm                                            
heartbeat-devel-3.0.4-2.el6.x86_64.rpm                                    
heartbeat-libs-3.0.4-2.el6.x86_64.rpm
ldirectord-3.9.5-3.1.x86_64.rpm


2.更改配置文件
cd /etc/ha.d
rpm -q herabeat –d


/usr/share/doc/heartbeat-3.0.4/AUTHORS
/usr/share/doc/heartbeat-3.0.4/COPYING
/usr/share/doc/heartbeat-3.0.4/COPYING.LGPL
/usr/share/doc/heartbeat-3.0.4/ChangeLog
/usr/share/doc/heartbeat-3.0.4/README
/usr/share/doc/heartbeat-3.0.4/apphbd.cf
/usr/share/doc/heartbeat-3.0.4/authkeys
/usr/share/doc/heartbeat-3.0.4/ha.cf
/usr/share/doc/heartbeat-3.0.4/haresources
/usr/share/man/man1/cl_status.1.gz
/usr/share/man/man1/hb_addnode.1.gz
/usr/share/man/man1/hb_delnode.1.gz
/usr/share/man/man1/hb_standby.1.gz
/usr/share/man/man1/hb_takeover.1.gz
/usr/share/man/man5/authkeys.5.gz
/usr/share/man/man5/ha.cf.5.gz
/usr/share/man/man8/apphbd.8.gz
/usr/share/man/man8/heartbeat.8.gz
cp /usr/share/doc/heartbeat-3.0.4/{authkeys,ha.cf,haresources}.

vim/etc/ha.cf
keepalive 2  (
每隔两秒发送心跳频率)
deadtime 30 (超过30s没收到心跳频率 默认对方死亡)
warntime 10 (超过10s没收到 警告)
initdead 60 (资源初始化)
udpport 1042 (端口)
bcast   eth0 (广播)
auto_failback on (主集群机恢复后 服务切回)
node    dd5.example.com
node    dd6.example.com (写在前面的是主节点)
ping 172.25.42.250 测试网络
(一个可以ping 通的ip 最好是网关 注意:不能是自己也不能是对方
respawn hacluster /usr/lib64/heartbeat/ipfail (插件断网)
apiauth ipfail gid=haclient uid=hacluster

vim authkeys
 auth 1 (明文)
1 crc

vim haresources
dd5.example.com IPaddr::172.25.42.200/24/eth0 httpd (vip)
chmod 600 /etc/ha.d/authkeys

另一台同样

测试:
curl 172.25.254.200

服务故障 不具备切换 (eg:httpd stop )

drbd(分布式复制块设备)

添加存储:
dd5:
tar -zxf drbd-8.4.2.tar.gz
yum install gcc -y
yum install flex
yum install -y rpm-build –y

./configure--enable-spec


./configure --enable-spec --with-km
rpmbuild -bb drbd.spec
rpmbuild -bb drbd-km.spec
yum install kernel-devl -y

cd /etc/drbd.d
vim example.res

resource example {
meta-disk internal;
device /dev/drbd1;
syncer {
verify-alg sha1;
}

on dd5.example.com {
disk /dev/vda;
address 172.25.42.14:7789;
}
on dd6.example.com {
disk /dev/vda;
address 172.25.42.15:7789;
}
}

drbdadm create-md example 初始化 (服务还没启动 两边都做 让服务读取硬盘)
/etc/init.d/drbd start (两边都做)
drbdadm primary example--force (强制让从second同步primary的信息)


mkfs.ext4 /dev/drbd1

drbdadm primary example (主的才能挂载)
drbdadm secondary example

drbd+heartbeat:
/etc/init.d/heartbeat stop (两边都做)
dd5:yum install mysql-server -y
/etc/init.d/mysqld start
/etc/init.d/mysqld stop
cd /var/lib/mysql/
cp -r * /mnt (前提: mount/dev/drbd1 /mnt)
umount /mnt
mount /dev/drdb1/var/lib/mysql

dd6:yum install mysql-server -y
drbdadm primary exmaple
mount /dev/drdb1 /var/lib/mysql
/etc/init.d/mysqld start
/etc/init.d/mysqld stop
drbdadm secondary example
umount /var/lib/mysql

vim /etc/ha.d/haresources
dd5.example.com IPaddr::172.25.42.200/24/eth0 drbddisk::exampleFilesystem::/dev/drbd1::/var/lib/mysql::ext4 mysqld

 
/etc/init.d/heartbeat start(两边都做)

测试:

时间: 2024-08-24 07:09:13

heartbeat+drbd的相关文章

Heartbeat+DRBD实现文件高可用

一.需求分析: 本文结合之前heartbeat与drbd两篇文章,实现磁盘文件高可用.当MySQL01(主数据库服务器)宕机后,MySQL02(备数据库服务器)可以通过heartbeat立刻检测到MySQL01挂了,MySQL02接管VIP,MySQL02的DRBD服务会自动从Secondary切换到Primary状态,然后自动加载DRBD逻辑盘:/dev/drbd0到/data目录,从而实现文件持续在线--即高可用状态:当MySQL01恢复后,VIP返回MySQL01,MySQL01的DRBD

Heartbeat+Drbd+NFS高可用实现

继续之前的操作,来完成heartbeat+drbd+nfs高可用的实现. heartbeat+drbd还是使用原来的环境即可,然而需要添加一台nfs客户端,客户端的信息如下: 主机名 IP地址 角色 server136.contoso.com 192.168.49.136 nfs客户端 一.环境准备 1)注意:因为我的客户端是192.168.49.0/24端,所以这里需要把VIP改为这个网段,所以先修改两个节点的haresources文件,将VIP修改为192.168.49.100.可以根据实际

Heartbeat+Drbd+Mysql主从高可用实现

在上一篇中已经实现了MySQL服务的高可用,MySQL的数据目录放在drbd的共享目录中,并且只有获取到heartbeat资源的VIP才能挂载共享目录,从而启动MySQL服务,但是两端的数据使用drbd同步,保证发生故障时,服务和资源能够从一个节点切换到另外一个节点,下面是一个简略的架构图: 对于MySQL服务,一般在生产环境中都要做主从结构,从而保证数据的完整性,所以这次要在这个架构的前提下,在两个heartbeat节点下再部署一台MySQL从库,而主库是heartbeat集群中的一台(主库的

Heartbeat+Drbd+MySQL高可用

一.环境介绍 继续使用之前heartbeat+drbd+nfs的环境,192.168.49.0/24网段用来ssh远程连接,172.16.49.0/24用来做心跳连接,并且也做drbd同步数据使用.因为中间做了好多改变,这里再次给出环境的配置情况. 主机名 角色 IP地址 heartbeat01.contoso.com heartbeat+drbd+mysql(节点1) eth0:192.168.49.133 eth1:172.16.49.133 heartbeat02.contoso.com

Heartbeat+DRBD+MySQL高可用方案

Heartbeat+DRBD+MySQL高可用方案 =============================================================================== 概述: =============================================================================== 方案介绍  1.方案介绍及优缺点 ★方案介绍 本方案采用Heartbeat双机热备软件来保证数据库的高稳定性和连续性,数

heartbeat+drbd+mysql

配置heartbeat接管drbd服务 配置heartbeat接管drbd服务(延续之前heartbeat及drbd博文内容) 1.两端确认都建立好 /data目录 2.关闭drbd服务,关闭heartbeat服务,自启动全部关闭 3.两端配置haresources data-1-1 IPaddr::192.168.0.191/24/eth0 drbddisk::data Filesystem::/dev/drbd0::/data::ext3 启动顺序 1.依次启动主备端drbd 2.drbd置

ysql+heartbeat+DRBD+LVS实现mysql高可用

在企业应用中,mysql+heartbeat+DRBD+LVS是一套成熟的集群解决方案,通过heart+DRBD实现mysql的主 节点写操作的高可用性,而通过mysql+LVS实现数据库的主从复制和mysql的读操作的负载均衡.整个方案在读写方面进行了分离,融合了写操作的高 可用和读操作的负载均衡,是一个完美又廉价的企业应用解决方案 目前流行的高可用解决方案: mysql的复制功能是通过建立复制关系和两台和多台机器环境中,一台机器出现故障切换到另一台机器上保证一定程度的可用性 mysql的复制

15、 Heartbeat+DRBD+MySQL高可用架构方案与实施过程细节

15. Heartbeat+DRBD+MySQL高可用架构方案与实施过程细节 参考自:http://oldboy.blog.51cto.com/2561410/1240412 heartbeat和keepalived应用场景及区别 很多网友说为什么不使用keepalived而使用长期不更新的heartbeat,下面说一下它们之间的应用场景及区别: 1.对于web,db,负载均衡(lvs,haproxy,nginx)等,heartbeat和keepalived都可以实现 2.lvs最好和keepa

heartbeat+DRBD+mysql+haproxy

heartbeat+DRBD+mysql主要实现mysql主的单点故障 haproxy实现mysql从的负载均衡 具体的测试的架构图和IP设置

Heartbeat+DRBD+NFS高可用案例

9.4 部署DRBD 的需求描述 9.4.1业务需求描述 假设两台服务器Rserver-1/Lserver-1, 其实际IP分别为192.168.236.143(Rserver)和192.168.236.192(Lserver) 配置目标:两台服务器分别配置好DRBD服务后.实现在Rserver-1机器上/dev/sdb 分区上写入数据.数据会时时的同步到Lserver-1机器上面.一旦服务器Rserver-1机器宕机或硬盘损坏导致数据不可用.Lserver-1机器上的数据此时是picdata-