高可用结合gfs2,,实现集群文件系统以及集群逻辑卷。

为什么要集群文件系统,在什么场景中适用我就用一句话来概括,当多个节点需要读写同一个文件系统时,需要使用集群文件系统,它可以将文件系统持有的锁信息传递到各个节点。

实验一、将iSCSI共享出来的磁盘,做成gfs2文件系统,实现多个节点可挂载同一个文件系统,保证数据同步

实验平台:RHEL6

环境拓扑:

ansible配置前面文章有讲到    略

iSCSI服务器配置    略

用控制端让三个节点安装需要的程序包。

  • ansible all -m shell -a ‘yum install cman rgmanager -y‘
  • ansible all -m shell -a ‘yum install gfs2-utils -y‘
  • ansible all -m shell -a ‘yum install iscsi-initiator-utils -y‘

设置各节点时间同步

  • ansible all -m shell -a ‘ntpdate asia.pool.ntp.org‘
  • ansible all -m shell -a ‘date‘

配置各节点登录到iSCSI-Server

  • ansible all -m shell -a ‘iscsiadm -m discovery -t sendtargets -p 192.168.18.205‘
  • ansible all -m shell -a ‘iscsiadm -m node -T iqn.2014-07.com.tuchao:share1 -p 192.168.18.205:3260 -l‘

登录成功后,用fdisk -l 可以看到iSCSI共享出来的磁盘sdb。

来到admin1.tuchao.com配置高可用。

创建一个集群

  • ccs_tool create gcluster

命令执行成功后,会在/etc/cluster目录下生成一个cluster.conf的文件。

添加节点

  • ccs_tool addnode -n 1 admin1.tuchao.com
  • ccs_tool addnode -n 2 admin2.tuchao.com
  • ccs_tool addnode -n 3 admin3.tuchao.com

将配置文件同步到各个节点

  • scp cluster.conf admin2:/etc/cluster/
  • scp cluster.conf admin3:/etc/cluster/

启动各个节点的cman和rgmanager,并设置开机自启动。

  • ansible all -m shell -a ‘service cman start‘
  • ansible all -m shell -a ‘service rgmanager start‘
  • ansible all -m shell -a ‘chkconfig cman on‘
  • ansible all -m shell -a ‘chkconfig rgmanager on‘

来到节点一对共享的iSCSI磁盘分区格式化,然后每个节点重启系统。

格式化/dev/sdb1为gfs2文件系统

命令帮助:

mkfs.gfs2

-J  //指定日志区域大小

-j  //日志区域个数

-p  //指定锁协议

-t  //指定锁表名称

  • mkfs.gfs2 -j 3 -p lock_dlm -t gcluster:sdb1 /dev/sdb1

修改fstab指定挂载点将文件同步到各个节点,启动gfs2服务自动挂载。

  • scp /etc/fstab admin2:/etc/
  • scp /etc/fstab admin3:/etc/
  • ansible all -m shell -a ‘service gfs2 start‘
  • ansible all -m shell -a ‘chkconfig gfs2 on‘

这就完成了集群文件系统,大家自行测试效果。

gfs2_grow  //重新检查磁盘边界,与集群逻辑卷扩展配合使用。

gfs2_jadd  //添加一个日志区域

gfs2_tool freeze  //冻结设备

gfs2_tool journals  //显示日志区域

实验二、集群逻辑卷创建与扩展。

首先安装支持的程序包

  • ansible all -m shell -a ‘yum install lvm2-cluster -y‘

修改三个节点的逻辑卷锁类型为集群类型,验并证/etc/lvm/lvm.conf文件。

  • ansible all -m shell -a ‘lvmconf --enable-cluster‘
  • ansible all -m shell -a "grep -i ‘^[[:space:]]*locking_type‘ /etc/lvm/lvm.conf"

启动服务

  • ansible all -m shell -a "service clvmd start"

创建pv,vg,lv,格式化挂载。

  • pvcreate /dev/sdb2
  • vgcreate cvg /dev/sdb2
  • mkfs.gfs2 -j 2 -p lock_dlm  -t gcluster:cllv /dev/cvg/cllv

由于我们这里指定了2个日志区域,只能两个节点挂载,第三个节点挂载的时候会报错。

增加一个日志区域,再挂载就不会报错了。

  • gfs2_jadd -j 1 /dev/cvg/cllv

扩展集群逻辑卷

创建只创建了5G空间,现在再给他加5G。

lvextend -L +5G /dev/cvg/cllv

gfs2_grow /dev/cvg/cllv

实验完成

高可用结合gfs2,,实现集群文件系统以及集群逻辑卷。

时间: 2024-10-10 00:47:05

高可用结合gfs2,,实现集群文件系统以及集群逻辑卷。的相关文章

实现Eureka Server的高可用并将应用注册到Eureka Sever集群上

1. 回顾 Eureka Client会定时连接Eureka Server,获取注册表中的信息并缓存到本地.微服务在消费远程API时总是使用本地缓存中的数据.因此一般来说,即使Eureka Server发生宕机,也不会影响到服务之间的调用.但如果Eureka Server宕机时,某些微服务也出现了不可用的情况,Eureka Server中的缓存若不被刷新,就可能会影响到微服务的调用,甚至影响到整个应用系统的高可用.因此,在生成环境中,通常会部署一个高可用的Eureka Server集群. Eur

高可用haproxy调度varnish服务器缓存后端动静分离集群架构

(1) 动静分离部署wordpress,动静都要能实现负载均衡,要注意会话的问题: (2) 在haproxy和后端主机之间添加varnish进行缓存: (3) 给出设计拓扑,写成博客: (4) haproxy的设定要求: (a) stats page,要求仅能通过本地访问使用管理接口:  (b) 动静分离: (c) 分别考虑不同的服务器组的调度算法: (5) haproxy高可用: 实验规划: 利用keepalived主备高可用两个haproxy服务器 对varnish缓存服务器做高可用 动态w

【MySQL】【高可用】从masterha_master_switch工具简单分析MHA的切换逻辑

简介:masterha_master_switch作为一个切换工具被集成在MHA程序包中, 安装:编译安装MHA manager后会在/usr/local/bin/中生成二进制可执行程序masterha_master_switch. 使用: $masterha_master_switch --help Usage: # For master failover masterha_master_switch --master_state=dead --global_conf=/etc/masterh

高可用,多路冗余GFS2集群文件系统搭建详解

2014.06 标签:GFS2 multipath 集群文件系统 cmirror 实验拓扑图: 实验原理: 实验目的:通过RHCS集群套件搭建GFS2集群文件系统,保证不同节点能够同时对GFS2集群文件系统进行读取和写入,其次通过multipath实现node和FC,FC和Share Storage之间的多路冗余,最后实现存储的mirror复制达到高可用. GFS2:全局文件系统第二版,GFS2是应用最广泛的集群文件系统.它是由红帽公司开发出来的,允许所有集群节点并行访问.元数据通常会保存在共享

HA Cluster基础概念及实现高可用集群

HA Cluster高可用集群分以下几个步骤来说: 点我-->HA Cluster基础概念 点我-->heartbeat实现HA 点我-->corosync详解 点我-->pacemaker详解 点我-->DRBD详解 点我-->heartbeat基于crm进行资源管理 点我-->Corosync+Pacemaker+DRBD+MySQL 实现高可用(HA)的MySQL集群 点我-->Heartbeat+MySQL+NFS 实现高可用(HA)的MySQL集群

Linux 高可用(HA)集群基本概念详解

大纲一.高可用集群的定义二.高可用集群的衡量标准三.高可用集群的层次结构四.高可用集群的分类 五.高可用集群常用软件六.共享存储七.集群文件系统与集群LVM八.高可用集群的工作原理 推荐阅读: CentOS 6.3下DRBD+Heartbeat+NFS配置笔记 http://www.linuxidc.com/Linux/2013-06/85599.htm Heartbeat_ldirector+LB+NFS实现HA及LB.文件共享 http://www.linuxidc.com/Linux/20

分布式架构高可用架构篇_02_activemq高可用集群(zookeeper+leveldb)安装、配置、高可用测试

从 ActiveMQ 5.9 开始,ActiveMQ 的集群实现方式取消了传统的Master-Slave 方式,增加了基于ZooKeeper + LevelDB的 Master-Slave实现方式,其他两种方式目录共享和数据库共享依然存在. 三种集群方式的对比: (1)基于共享文件系统(KahaDB,默认): <persistenceAdapter> <kahaDB directory="${activemq.data}/kahadb"/> </persi

高可用集群技术之heartbeat+NFS实现web服务高可用(文本方式配置接口--gui图形配置)

一.高可用集群基本概念   什么是高可用技术呢?在生产环境中我既要保证服务不间断的服务又要保证服务器稳定不down机,但是异常还是会发生,比如说:服务器硬件损坏...导致服务器down机,我该如何保证服务器down机后继续提供服务呢?这时我就应该请出高可用技术来帮忙了,当我们的服务器发生故障后不能继续时,高可用集群技术解决将业务及服务自动转移至其他主机服务器上继续服务,保证服务架构不间断运行. 高可用集群的架构层次: 后端主机层: 这一层主要是正在运行在物理主机上的服务. 2.Message l

Linux 高可用(HA)集群基本概念详解一

目录: 一.高可用集群的定义 二.高可用集群的衡量标准 三.高可用集群的层次结构 四.高可用集群的分类 五.高可用集群常用软件 六.共享存储 七.集群文件系统与集群LVM 八.高可用集群的工作原理 一.高可用集群的定义 高可用集群,英文原文为High Availability Cluster,简称HACluster,简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源.这些单个的计算机系统 就是集群的节点(node). 高可用集群的出现是为了使集群的整体服务尽可