RHCS(四)之gfs2和clvm

六、测试clvm和gfs2文件系统

恢复所有节点都是online在集群中

在web1对共享存储中的/dev/sdb2创建lv

pvcreate /dev/sdb2

vgcreate rhcsvg /dev/sdb2

lvcreate -L 1G -n lv1rhcsvg

lvcreate -L 128M -n lv2 rhcsvg

在web4查看自己有没有/dev/rhcsvg/lv*

没有。。。

对web所有节点开启clvmd服务

[[email protected] ~]# for i in web1 web2 web3 web4;do ssh [email protected]$i ‘service clvmd start‘;done

在web2在lv1上创建gfs2文件系统

[[email protected] ~]# ls /dev/rhcsvg/lv*

/dev/rhcsvg/lv1  /dev/rhcsvg/lv2

[[email protected] ~]# mkfs.gfs2 -p lock_dlm -t mycluster:mygfs2 -j 4 /dev/rhcsvg/lv1

This will destroy any data on /dev/rhcsvg/lv1.

Are you sure you want to proceed? [y/n] y

Device:                   /dev/rhcsvg/lv1

Blocksize:                 4096

Device Size                0.94GB (246991 blocks)

Filesystem Size:           0.94GB (246988 blocks)

Journals:                  4

Resource Groups:           4

Locking Protocol:         "lock_dlm"

Lock Table:               "mycluster:mygfs2"

UUID:                     9D04481F-FD9C-2DF8-E03C-12BDFF32EB98

在所有节点挂载/dev/rhcs/lv1到/mnt/gfs2

测试gfs2文件锁:(gfs2管理工具:gfs2_fsck gfs2_tool gfs_jadd)

在web1运行以下脚本

while :;do

echo “web1-test” >> /mnt/gfs2/test

done

在web2运行以下脚本

while :;do

echo “web2-test” >> /mnt/gfs2/test

done

在web3节点,tailf /mnt/gfs/test

web1-test

web2-test

web1-test

web2-test

web1-test

web2-test

在web3在lv2上创建ext3文件系统

[[email protected] ~]# mkfs.ext3 /dev/rhcs/lv2

测试ext3文件锁:

[[email protected] ~]# ./test2.sh &

[1] 5175

[[email protected] ~]# tailf /mnt/ext3/

lost+found/ mytest

[[email protected] ~]# tailf /mnt/ext3/mytest

web2-test

web2-test

……

[[email protected] ~]# cd /mnt/ext3/

[[email protected] ext3]# ll

total 12

drwx------ 2 root root 12288 Sep 23 22:29 lost+found

?--------- ? ?    ?        ?            ? mytest

#锁了,显示不了!

[[email protected] ext3]# touch web1

touch: cannot touch `web1‘: Read-only file system

#写锁,只读。

吐槽

1.这个RHCS系列实验我搞了一个半星期有多,卡在了quorum机制的理解上。

2.Qdisk机制弄了3天才弄懂,呵呵。

3.当我在苦思qdisk的作用的时候,看到有文章说一般情况都是用GFS和基于IP来进行仲裁的,挺难受的,但是还是坚持做了这个实验,呵呵。

4.屌丝2G内存,开不了5台虚拟机做实验,呵呵。于是借了舍友的4G内存的PC开5个虚拟机做实验。值得一说的是,我试过把两台web放在我的PC,两台web放在同学的PC,在开启cman的时候,只有在本机的两台可以加到集群上,我改为广播,但是还是识别不了,感觉是虚拟环境的影响。呵呵。屌丝。

5.感觉自己搞错了学习重心,下次该醒目点了。

6.在博客上传文章的时候,竟然说有字数限制,上传、排版用了一个小时。

资料参考

南非蚂蚁《高性能Linux服务器构建实践》

http://blog.yikuyiku.com/?p=2796#comments

http://www.redhat-club.com/jswd_01.htm

http://feilong0663.blog.51cto.com/3265903/1543452

http://369369.blog.51cto.com/319630/836001

Rocker Lau

2014.09.24

时间: 2024-10-22 01:12:35

RHCS(四)之gfs2和clvm的相关文章

RHCS+GFS2+ISCSI+CLVM实现共享存储

RHCS+GFS2+ISCSI+CLVM实现共享存储                            2015-03-25 16:35:29 标签:iscsi scsi rhcs clvm gfs2 本文转载修改自http://www.it165.net/admin/html/201404/2654.html 一,GFS2简介 GFS2 是一个基于GFS的先进的集群文件系统,能够同步每台主机的集群文件系统的metadata,能够进行文件锁的管理,并且必须要redhat cluster su

34补3-4 rhcs之gfs2和clvm

04 rhcs之gfs2和clvm 使用共享存储创建高可用集群 [[email protected] ~]# yum -y install scsi-target-utils [[email protected] ~]# vim /etc/tgt/targets.conf  在末尾添加 <target iqn.2015-01.com.magedu:node4.t1> backing-store /dev/sda4 initiator-address 192.168.1.0/24 </ta

RHCS +GFS2+iscsi+cLVM实现高可用web集群

RHEL6.6-x86-64 软件源: epel源 本地yum源 RHCS安装及配置 192.168.1.5   安装luci      两块硬盘, 其中/sdb提供共享存储. 集群节点 192.168.1.6  安装ricci     node1.mingxiao.info     node1 192.168.1.7  安装ricci     node2.mingxiao.info     node2 192.168.1.8 安装ricci      node3.mingxiao.info  

基于RHCS的web双机热备集群搭建

基于RHCS的web双机热备集群搭建 RHCS集群运行原理及功能介绍 1. 分布式集群管理器(CMAN) Cluster Manager,简称CMAN,是一个分布式集群管理工具,它运行在集群的各个节点上,为RHCS提供集群管理任务.CMAN用于管理集群成员.消息和通知.它通过监控每个节点的运行状态来了解节点成员之间的关系,当集群中某个节点出现故障,节点成员关系将发生改变,CMAN及时将这种改变通知底层,进而做出相应的调整. 2.锁管理(DLM) Distributed Lock Manager,

gfs2共享集群存储

本文系统Centos 6.5 x64 共四台主机, 192.168.100.128 Aries.lansgg.com               存储共享服务器192.168.100.129 node1.lansgg.com             测试客户端192.168.100.130 node2.lansgg.com             测试客户端 192.168.100.131 node3.lansgg.com             测试客户端 目的:存储server通过iscsi

RHCS(一)之原理、搭建

前言 最近在学习集群高可用,集群的高可用可以让平台架构实现服务在线时间接近7X24X365.实现高可用技术有Heartbeat.Keepalive.Corosync等等,我们这里介绍的是RedHat Cluster Suite (RHCS).本实验通过cman+rgmanager+system-config-cluster+gfs2+iscsi+clvm+qdisk来实现前端高可用web服务. 原理 其实高可用技术无非就是实现了这三层的功能:最低层的信息交换层.中间的集群资源管理层.上层的资源管

linux从小白到linux资深专家之路

为什么学Linux,理由如下:    Linux是免费:    Linux是开源的,你可以修改源代码:    Linux是开放的,有广泛的社区:    学习Linux可以更好的掌握计算机技术:    Linux是未来发展的趋势:    Linux有非常多的发行版本,你可以根据需要做出不同的选择:    Linux让你多了一个选择:    Linux是一种自由哲学,一种开源的信仰:    学好linux,可以装逼,最重要一点,技多不压身. 学习linux不要一下子就上来学架构之类的,一定要打好基础

Linux 高可用(HA)集群之keepalived详解

http://freeloda.blog.51cto.com/2033581/1280962 大纲 一.前言 二.Keepalived 详解 三.环境准备 四.LVS+Keepalived 实现高可用的前端负载均衡器 一.前言 这篇文章是前几篇文章的总结,我们先简单的总结一下我们前面讲解的内容,前面我们讲解了,LVS(负载均衡器).Heartbeat.Corosync.Pacemaker.Web高可用集群.MySQL高可用集群.DRDB.iscsi.gfs2.cLVM等,唯一没有讲解的就是LVS

Linux集群存储配置

RH436_EX集群 介绍Linux环境下集群架构,Linux开源集群软件的安装及配置使用,软件与软件之间的组合.实现高可用集群,负载均衡集群;负载均衡.高可用集群与存储集群间的多集群混合架构使用. 本次试验我使用了多种安装包:pcs为集群的基本架构,fence为警报装置,targetcli和iscsi实现远程磁盘共享,dlm和lvm2.cluster为集群中解决底层共享的逻辑卷,gfs-utiils中gfs2与clvm可扩展性集群共享存储. 实验环境中多台PC,真实机 :foundation0