DRBD-heartbeat-NFS实验测试

这个实验我是在centos6-6进行的,首先给两台主机添加一块5G的硬盘,DRBD硬件规定两块硬盘的容量大少相同。

创建逻辑卷

[[email protected] conf]# fdisk /dev/sdb

n

p

1

w

q

配置环境,修改主机名:

[[email protected] ~]# hostname drbd-1  # vim /etc/sysconfig/network 需要重启

[[email protected] ~]# hostname drbd-2   #uname -n查看是否有修改

[[email protected] ~]# vim /etc/hosts#在hosts文件添加解析

192.168.150.151 drbd1

192.168.150.152 drbd2

DRBD:

[[email protected] ~]# rpm -Uvh http://www.elrepo.org/elrepo-release-6-6.el6.elrepo.noarch.rpm

[[email protected] ~]# yum -y install drbd83-utils kmod-drbd83

配置DRBD,两台主机配置文件一样

[[email protected] ~]# cat /etc/drbd.conf

global {

usage-count yes;#drbd使用者统计

}

common {

syncer { rate 400M; }#同步速率

}

resource r0 {#创建r0资源

protocol C;#收到对方写入确认后,确认同步

Net{

Cram-hamc-alg “sha1”;#同时时的验证方式

Shared-secret  “dragon”;  #验证密码

}

on drbd1 {#这里on 后面的名称“drbd1”需要与”uname -r”一样

device    /dev/drbd0;

disk      /dev/sdb1;#drbd)使用的磁盘

address   192.168.150.151:7789;#对方ip和端口,需留意防火墙是否阻止

meta-disk  internal;#drbd数据存储方式

}

on drbd2 {

device    /dev/drbd0;

disk      /dev/sdb1;

address   192.168.150.152:7789;

meta-disk internal;

}

}

[[email protected]2 ~]# modprobe drbd        #加载DRBD模块

[[email protected]2 ~]# lsmod |grep drbd     #查看模块是否添加

drbd                  332493  0

[[email protected]2 ~]# drbdadm create-md r0     #创建drbd记录信息的数据块

Writing meta data...

initializing activity log

NOT initialized bitmap

New drbd meta data block successfully created.

[[email protected]2 ~]# mkdir /NFS

[[email protected]2 ~]# drbdsetup /dev/drbd0 primary -o   #设置主节点

NFS

yum install nfs-utils rpcbind

[[email protected]2 ~]# vim /etc/exports

/NFS 192.168.150.0/24(rw,no_root_squash.async)

[[email protected]2 ~]# service rpcbind start

[[email protected]2 ~]# service nfs start

heartbeat

[[email protected]2 ~]# rpm -Uvh http://download.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

[[email protected]2 ~]# yum install heartbeat

配置ha.cf

[[email protected]2 ~]# cat /etc/ha.d/ha.cf

logfile /var/log/ha-log#生成日志文件

logfacility     local0

keepalive 2    #心跳检测

deadtime 10    #死亡时间

udpport 694    #交换数据端口,注意iptables有没有开放此端口

bcast eth7     #在本地网卡eth7广播心跳信息,也可以用“ucat eth7 对方ip”的方式

auto_failback on   #故障恢复以后是否自动回到主节点

warntime 5    #警告时间

node    drbd1    #声明节点

node    drbd2

配置authkeys

[[email protected]2 ~]# cat /etc/ha.d/authkeys    #互联验证文件

auth 1

1 crc

[[email protected]2 ~]# chmod 600 /etc/ha.d/authkeys

配置haresources

[[email protected]2 ~]# cat /etc/ha.d/haresources

drbd1 IPaddr::192.168.150.155/24/eth5:1 drbddisk::r0 Filesystem::/dev/drbd0::/NFS::ext3 killnfsd

#另一主机为drbd2,指定虚拟IP挂在本机eth5:1

创建NFS控制脚本

[[email protected] ~]# cat  /etc/ha.d/resource.d/killnfsd

killall -9 nfsd; /etc/init.d/nfs restart;exit 0

[[email protected] ~]# service heartbeat start

查看节点drbd2:

切换到drbd1:

[[email protected] ~]# drbdsetup /dev/drbd0 primary -o

[[email protected] ~]# drbdsetup /dev/drbd0 secondry all

客户机挂载NFS:

[[email protected] ~]# yum install rpcbind

最后测试的时候,可能是我切换太频繁,出现了“脑裂”,没有自动挂载/dev/drbd0到NFS,而且,两个节点都自动变为secondry。

时间: 2024-10-26 22:38:42

DRBD-heartbeat-NFS实验测试的相关文章

DRBD+Heartbeat+NFS高可用实战

实验环境:Centos 6.7_64位 服务器: Master节点:dm1 IP地址:10.0.0.61(eth0) 192.168.3.150(eth1,心跳) Slave节点:dm2 IP地址:10.0.0.62(eth0) 192.168.3.160(eth1,心跳) VIP地址:192.168.0.180 一.DRBD环境搭建 1. host映射 # vi  /etc/hosts 127.0.0.1   localhostlocalhost.localdomain localhost4

drbd+heartbeat+nfs

Drbd+heartbeat+nfs 设备信息: master:ip 192.168.8.220/24  eth0   增加sdb磁盘无需挂载 backup: ip 192.168.8.221/24   eth0  增加sdb磁盘无需挂载 拓扑: 编辑 /etc/hosts     (master+backup) 下载drbd源码包:drbd8.4.3.tar.bz2 一:编译安装drbd  (master+backup) 1.1安装依赖 Yum install gcc gcc-c++ make

drbd+heartbeat+nfs高可用架构搭建

一.客户需求 1.需求描述 有些客户有自己的存储设备,但是并没有集群文件系统服务,所以如果我们多个节点(计算节点)如果想同时使用其中的一个块且要保证高可用的话,就需要我们自己来完成类似集群文件系统的服务组合,在此我们使用的服务组合是:iscsi共享+drbd+heartbeat+nfs. 2.服务说明 Iscsi共享:这里通过iscsi共享服务将存储设备上的存储块共享出去,提供节点(NC1+NC2)使用,此处我们将在iscsi服务短创建两个镜像充当块设备. Drbd   :服务器之间镜像块设备内

DRBD+HeartBeat+NFS:配置NFS的高可用

说明: 上周研究了DRBD的安装和配置,今天研究下DRBD的第一个应用,利用DRBD+HeartBeat+NFS:配置NFS的高可用,作为集群中的底端共享存储 NFS主要存储WEB服务器上的程序代码和一些图片文件 参考: http://network.51cto.com/art/201010/230237_all.htm http://showerlee.blog.51cto.com/2047005/1212185 环境: [[email protected] ~]# cat /etc/issu

DRBD+HEARTBEAT+NFS高可用架构笔记

参考1:http://os.51cto.com/art/201412/461533.htm 参考2:http://732233048.blog.51cto.com/9323668/1669417 参考3:http://network.51cto.com/art/201010/230237_all.htm 网络拓扑: 简要说明: 两台 NFS 服务器,通过 eth0 网卡与内网的其他业务服务器进行通信,eth1网卡主要负责两台 NFS 服务器之间心跳通信,eth2网卡主要负责drbd数据同步的传输

项目:一次测试环境下的高可用NFS文件服务器(DRBD+heartbeat+NFS)

什么是DRBD? 分布式复制块设备.当你将数据写入本地的DRBD设备上的文件系统时,数据同时会被发送到远程端的另一边的DRBD设备文件系统里,保障数据实时同步,当本地的DRBD设备突然故障,远程节点还保留一份一模一样的数据,根据这个特性,可以结合heatbeat的ha开源软件,实现高可用! 我们都把DRBD理解是网络raid1磁盘阵列. DRBD底层设备可以是 1)一块磁盘,或者一个分区. 2)raid设备. 3)逻辑卷lvm. 4)任何块设备. DRBD支持三种不同的复制协议.协议A,协议B,

DRBD+HEARTBEAT+NFS简要命令记录

前期准备:2个机器分别加磁盘,网络调通1个心跳线同步线 由fdisk -l可以看出有一块大小为10.7G的设备/dev/sdb,对/dev/sdb来创建逻辑卷: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [[email protected] ~]# pvcreate /dev/sdb             #创建pv   Physical volume "/dev/sdb" successfully created [

DRBD+HeartBeat架构实验

HeartBeat模块 CRM:(Cluster Resource Manager)集群的大脑,根据heartbeart收集回来的节点状态交给CCM模块来更新集群的member ship,并指挥LRM对节点资源进行"启动","停止",总之就是决定资源最终应该在那个节点上运行. LRM:(Local Resource Manger)操作和管理资源的模块,负责对资源监控,启动,停止.三个资源脚本存放路径 heartbeat: /etc/ha.d/resoruce.d o

Centos5.8 x86_64下安装DRBD+Heartbeat+NFS

实验环境:vmware workstation os:Centos5.8 x86_64 编辑两台虚拟机分别新增一块网卡作为心跳检测,新增一块4G的硬盘,大小保持一致 两台机器的基本情况如下所示: centos1.mypharma.com 192.168.150.100,心跳线为:10.10.10.2(VM2网段) centos2.mypharma.com 192.168.150.101,心跳线为:10.10.10.3(VM2网段) heartbeat的vip为 192.168.150.128 一

某电商网站线上drbd+heartbeat+nfs配置

1.环境 nfs1.test.com 10.1.1.1 nfs2.test.com 10.1.1.2 2.drbd配置 安装drbd yum -y install gcc gcc-c++ make glibc flex yum -y install drbd kmod-drbd 加载drbd模块 modprobe drbd lsmod | grep drbd /etc/drbd.conf配置 resource r0 { protocol C; startup { wfc-timeout 0; d