drbd+heartbeat+nfs

Drbd+heartbeat+nfs

设备信息:

master:ip 192.168.8.220/24  eth0   增加sdb磁盘无需挂载

backup: ip 192.168.8.221/24   eth0  增加sdb磁盘无需挂载

拓扑:

编辑 /etc/hosts     (master+backup)

下载drbd源码包:drbd8.4.3.tar.bz2

一:编译安装drbd  (master+backup)

1.1安装依赖

Yum install gcc gcc-c++ make flexkernel-devel kernel-heders

解压并安装:

./configure –prefix=/usr/local/drbd –with-kem#--with-kem 开启内核模块

make KDIR=/usr/src/kernels/’uname-r’#指定系统内核源码路径

make install

modprobe drbd    ##加载内核模块

lsmod | grep drbd

配置drbd (master+backup)

cp /usr/local/drbd/etc/drbd.d/global_common.conf global_common.conf.bak

vi global_common.conf

global {

usage-countno;

}

common {

protocol C;

startup {

wfc-timeout120;

degr-wfc-timeout120;

}

disk {

on-io-errordetach;

fencingresource-only;

}

net {

cram-hmac-alg"sha1";

shared-secret"uccc";

}

syncer {

rate 30M;

}

}

2:创建资源文件(master+backup)

vi /usr/local/drbd/etc/drbd.d/nfs.res   #创建名为nfs的资源文件

resource nfs {

on master {

device/dev/drbd0;

disk/dev/sdb1;

address 192.168.8.220:7788;

meta-diskinternal;

}

on backup {

device/dev/drbd0;

disk/dev/sdb1;

address 192.168.8.221:7788;

meta-diskinternal;

}

}

激活资源:(master+backup)

drbdadm  create-md nfs   ##drbdadm为drbd的管理命令

启动drbd:(master+backup)

service drbd start   ##启动drbd

service drbd sattus   ##查看drbd状态

设置开机启动(master+backup)

chkconfig –add drbd

chkconfig drbd on

因为默认状态下master与backup的状态都为secondary,所以需要设置master为primary;(master)

drbdsetup /dev/drbd0 primary –force     ##设置master为primary

格式化并挂载磁盘(master)

mkfs.ext4 /dev/drbd0

mkdir /data

mount /dev/drbd0 /data

查看磁盘使用情况

df –h

至此drbd安装完成。

二:安装NFS(master+backup)

yum install rpcbind nfs-utils –y

编辑配置文件:vi exports

servicerpcbind start

service nfsstart

chkconfigrpcbind on

chkconfig nfson

修改nfs启动配置

vi/etc/init.d/nfs

修改配置

killproc nfsd -2 为 9     ##此处配置是否必须?

三:安装heartbeat (master+backup)

3.1通过yum安装,默认yum源没有此包,需对源进行更新。

rpm -Uvh http://mirrors.sohu.com/fedora-epel/6/x86_64/epel-release-6-8.noarch.rpm

yum install heartbeat* -y

heartbeat有三个配置文件

authkeys ha.cf  haresources    ##分别为认证文件、主配置文件、资源文件

3.2 master配置heartbeat

3.2.1 [[email protected] ~]# cat /etc/ha.d/ha.cf| grep -v "^#"

debugfile /var/log/ha-debug

logfile   /var/log/ha-log

logfacility    local0

keepalive 2

deadtime 10

warntime 10

initdead 120

udpport 694     ##端口号

ucast eth0 192.168.8.221   ##对端的ip

auto_failback off     ##自动切换

node     master #主节点

node     backup       #备节点

ping 192.168.8.1      ##ping网关

3..2.2 配置authkeys

vi /etc/ha.d/authkeys

auth 1       # 采用何种认证

1 crc        #无加密认证

#2 sha1 HI

#3 md5 Hello!

3.2.3配置haresources

vi /etc/ha.d/haresources

master IPaddr::192.168.8.222/24/eth0 drbddisk::nfs Filesystem::/dev/drbd0::/data::ext4 killnfsd

###此处说明:共有5部分

1部分:主节点主机名

2部分:设置heartbeat的vip;即对外服务ip。

3部分:设置对资源文件进行的操作。通过drbddisk。

4部分:文件系统类型及挂载点

5部分:执行killnfsd脚本

共有4个脚本:IPaddr    drbddisk      Filesystem   killnfsd

需要存放在/etc/ha.d/resource.d/  中,但是经过查看目录中没有drbddisk。所以导致启动一直没能成功。需要找到drbddisk文件并复制到/etc/ha.d/resource.d/。

killnfsd文件也需要自己创建。

3.2.4

如图:

查找drbddisk文件,发现在drbd安装文件中是有的,直接复制过去。

cp /usr/local/drbd/etc/ha.d/resource.d/drbddisk/etc/ha.d/resource.d/

创建killnfsd文件

cd /etc/ha.d/recource.d/;vi killnfsd

killall -9 nfsd; /etc/init.d/nfs restart;exit 0

chmod +x killnfsd

3.2.5 修改文件权限

chmod 600  /etc/ha.d/authkeys

chmod 755 /etc/ha.d/resource.d/killnfsd

3.3 backup配置heartbeat

3.3.1复制master的配置文件到backup中。

scp ha.cfauthkeys haresources backup:/etc/ha.d/

scp resource.d/killnfsd backup:/etc/ha.d/resource.d/

scp resource.d/drbddisk backup:/etc/ha.d/resource.d/

3.3.2配置master的ha.cf文件

ucast eth0 192.168.8.220  #修改此处为master的ip

3.4启动heartbeat(master+backup)

service heartbeat start    #启动

chkconfig heartbeat on   #设置开机启动

service heartbeat status   #查看状态

ip a 查看ip地址发现 vip已经存在

ping 192.168.8.222 已通

heartbeat已经安装完成!

四:模拟测试

4.1 masterdrbd状态与master /data 分区

可以看出master的drbd为primary状态,且/drv/drbd0已经挂载到/data

4.2 backup查看drbd状态与 /data 分区

而backup的drbd状态为secondary,且无/data分区

4.3 关闭master的heartbeat,查看drbd状态,与backup的分区信息

关闭heartbeat后,master的drbd状态切换至secondary,且/data分区已经消失。

查看backup的主机。

发现drbd状态已由原来的secondary切换至primary。

再观察分区,发现/dev/drbd0已成功挂载至/data。

实验完成!!

时间: 2024-09-28 05:24:23

drbd+heartbeat+nfs的相关文章

DRBD+Heartbeat+NFS高可用实战

实验环境:Centos 6.7_64位 服务器: Master节点:dm1 IP地址:10.0.0.61(eth0) 192.168.3.150(eth1,心跳) Slave节点:dm2 IP地址:10.0.0.62(eth0) 192.168.3.160(eth1,心跳) VIP地址:192.168.0.180 一.DRBD环境搭建 1. host映射 # vi  /etc/hosts 127.0.0.1   localhostlocalhost.localdomain localhost4

drbd+heartbeat+nfs高可用架构搭建

一.客户需求 1.需求描述 有些客户有自己的存储设备,但是并没有集群文件系统服务,所以如果我们多个节点(计算节点)如果想同时使用其中的一个块且要保证高可用的话,就需要我们自己来完成类似集群文件系统的服务组合,在此我们使用的服务组合是:iscsi共享+drbd+heartbeat+nfs. 2.服务说明 Iscsi共享:这里通过iscsi共享服务将存储设备上的存储块共享出去,提供节点(NC1+NC2)使用,此处我们将在iscsi服务短创建两个镜像充当块设备. Drbd   :服务器之间镜像块设备内

DRBD+HeartBeat+NFS:配置NFS的高可用

说明: 上周研究了DRBD的安装和配置,今天研究下DRBD的第一个应用,利用DRBD+HeartBeat+NFS:配置NFS的高可用,作为集群中的底端共享存储 NFS主要存储WEB服务器上的程序代码和一些图片文件 参考: http://network.51cto.com/art/201010/230237_all.htm http://showerlee.blog.51cto.com/2047005/1212185 环境: [[email protected] ~]# cat /etc/issu

DRBD+HEARTBEAT+NFS高可用架构笔记

参考1:http://os.51cto.com/art/201412/461533.htm 参考2:http://732233048.blog.51cto.com/9323668/1669417 参考3:http://network.51cto.com/art/201010/230237_all.htm 网络拓扑: 简要说明: 两台 NFS 服务器,通过 eth0 网卡与内网的其他业务服务器进行通信,eth1网卡主要负责两台 NFS 服务器之间心跳通信,eth2网卡主要负责drbd数据同步的传输

项目:一次测试环境下的高可用NFS文件服务器(DRBD+heartbeat+NFS)

什么是DRBD? 分布式复制块设备.当你将数据写入本地的DRBD设备上的文件系统时,数据同时会被发送到远程端的另一边的DRBD设备文件系统里,保障数据实时同步,当本地的DRBD设备突然故障,远程节点还保留一份一模一样的数据,根据这个特性,可以结合heatbeat的ha开源软件,实现高可用! 我们都把DRBD理解是网络raid1磁盘阵列. DRBD底层设备可以是 1)一块磁盘,或者一个分区. 2)raid设备. 3)逻辑卷lvm. 4)任何块设备. DRBD支持三种不同的复制协议.协议A,协议B,

DRBD+HEARTBEAT+NFS简要命令记录

前期准备:2个机器分别加磁盘,网络调通1个心跳线同步线 由fdisk -l可以看出有一块大小为10.7G的设备/dev/sdb,对/dev/sdb来创建逻辑卷: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [[email protected] ~]# pvcreate /dev/sdb             #创建pv   Physical volume "/dev/sdb" successfully created [

Centos5.8 x86_64下安装DRBD+Heartbeat+NFS

实验环境:vmware workstation os:Centos5.8 x86_64 编辑两台虚拟机分别新增一块网卡作为心跳检测,新增一块4G的硬盘,大小保持一致 两台机器的基本情况如下所示: centos1.mypharma.com 192.168.150.100,心跳线为:10.10.10.2(VM2网段) centos2.mypharma.com 192.168.150.101,心跳线为:10.10.10.3(VM2网段) heartbeat的vip为 192.168.150.128 一

某电商网站线上drbd+heartbeat+nfs配置

1.环境 nfs1.test.com 10.1.1.1 nfs2.test.com 10.1.1.2 2.drbd配置 安装drbd yum -y install gcc gcc-c++ make glibc flex yum -y install drbd kmod-drbd 加载drbd模块 modprobe drbd lsmod | grep drbd /etc/drbd.conf配置 resource r0 { protocol C; startup { wfc-timeout 0; d

Heartbeat+DRBD+MySQ+NFS部署文档

系统环境 系统:CentOS6.6 系统位数 x86_64 软件环境 heartbeat-3.0.4-2 drbd-8.4.3 nfs-utils-1.2.3-26 部署环境 角色 IP VIP 192.168.1.13(内网提供服务的地址) data-09.com br0:192.168.1.9 data-11.com br0:192.168.1.11 1.DRBD 篇 注意:DRBD可使用硬盘.分区.逻辑卷,但不能建立文件系统 1).安装依赖包 [[email protected] ~]#