RHCS +GFS2+iscsi+cLVM实现高可用web集群

RHEL6.6-x86-64

软件源:

epel源

本地yum源

RHCS安装及配置

192.168.1.5   安装luci      两块硬盘, 其中/sdb提供共享存储。

集群节点

192.168.1.6  安装ricci     node1.mingxiao.info     node1

192.168.1.7  安装ricci     node2.mingxiao.info     node2

192.168.1.8 安装ricci      node3.mingxiao.info     node3

前提:

1> 192.168.1.5分别与node1,node2,node3互信

2> 时间同步

3> 节点主机名分别为node1.mingxiao.info、node2.mingxiao.info、node3.mingxiao.info

进主机192.168.1.5

vim /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.6 node1.mingxiao.info node1
192.168.1.7 node2.mingxiao.info node2
192.168.1.8 node3.mingxiao.info node3

# for I in {1..3}; do scp /etc/hosts node$I:/etc;done

时间同步

# for I in {1..3}; do ssh node$I ‘ntpdate time.windows.com‘;done

节点间互信。

.....

# yum -y install luci

# for I in {1..3}; do ssh node$I ‘yum -y install ricci‘; done

# for I in {1..3}; do ssh node$I ‘echo xiaoming | passwd --stdin ricci‘; done

# for I in {1..3}; do ssh node$I ‘service ricci start;chkconfig ricci on‘; done

# for I in {1..3}; do ssh node$I ‘yum -y install httpd‘; done

# service luci start

浏览器输入https://192.168.1.5:8084访问web管理界面,输入root用户和root密码

创建集群,Password输入各节点ricci用户密码,

添加资源,这里添加两个一个为VIP,一个为httpd,添好如下图界面

添加故障转移域,如下图:

由于没有fences设备,所以不再添加。

接下来要配置iscsi,提供共享存储:

进192.168.1.5

# yum -y install scsi-target-utils

# for I in {1..3}; do ssh node$I ‘yum -y install iscsi-initiator-utils‘; done

vim /etc/tgt/targets.conf   添加如下内容
<target iqn.2015-05.ingo.mingxiao:ipsan.sdb>
  <backing-store /dev/sdb>
     vendor_id Xiaoming
     lun 1
  </backing-store>
  initiator-address 192.168.1.0/24
  incominguser iscsiuser xiaoming
</target>

# service tgtd start

# tgtadm --lld iscsi --mode target --op show  #可查看到如下信息
Target 1: iqn.2015-05.ingo.mingxiao:ipsan.sdb
    System information:
        Driver: iscsi
        State: ready
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: null
            Backing store path: None
            Backing store flags: 
        LUN: 1
            Type: disk
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 21475 MB, Block size: 512
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: rdwr
            Backing store path: /dev/sdb
            Backing store flags: 
    Account information:
        iscsiuser
    ACL information:
        192.168.1.0/24
# for I in {1..3}; do ssh node$I ‘echo "InitiatorName=`iscsi-iname -p iqn.2015-05.info.mingxiao`" > /etc/iscsi/initiatorname.iscsi‘; done
vim /etc/iscsi/iscsid.conf       #在node1、node2、node3启用下面三行
node.session.auth.authmethod = CHAP
node.session.auth.username = iscsiuser
node.session.auth.password = xiaoming
# ha ssh node$I ‘iscsiadm -m discovery -t st -p 192.168.1.5‘;done
[  OK  ] iscsid: [  OK  ]
192.168.1.5:3260,1 iqn.2015-05.ingo.mingxiao:ipsan.sdb
[  OK  ] iscsid: [  OK  ]
192.168.1.5:3260,1 iqn.2015-05.ingo.mingxiao:ipsan.sdb
[  OK  ] iscsid: [  OK  ]
192.168.1.5:3260,1 iqn.2015-05.ingo.mingxiao:ipsan.sdb
# ha ssh node$I ‘iscsiadm -m node -T iqn.2015-05.ingo.mingxiao:ipsan.sdb -p 192.168.1.5 -l ‘;done
Logging in to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] (multiple)
Login to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] successful.
Logging in to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] (multiple)
Login to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] successful.
Logging in to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] (multiple)
Login to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] successful.

node1,node2,node3分别安装以下两个rpm包,rpmfind.net可找到

# rpm -ivh lvm2-cluster-2.02.111-2.el6.x86_64.rpm gfs2-utils-3.0.12.1-68.el6.x86_64.rpm 
warning: lvm2-cluster-2.02.111-2.el6.x86_64.rpm: Header V3 RSA/SHA1 Signature, key ID c105b9de: NOKEY
Preparing...                ########################################### [100%]
   1:gfs2-utils             ########################################### [ 50%]
   2:lvm2-cluster           ########################################### [100%]

进node1

# pvcreate /dev/sdb

# vgcreate clustervg /dev/sdb

# lvcreate -L 5G -n clusterlv clustervg

# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:sdb  /dev/clustervg/clusterlv

添加一个服务,名为webservice

将先前VIP资源加入

新建一个GFS2资源,并加入

将先前httpd资源加入

然后启动即可。

查看状态:

# clustat
Cluster Status for mycluster @ Thu May  7 00:07:21 2015
Member Status: Quorate
 Member Name                                             ID   Status
 ------ ----                                             ---- ------
 node1.mingxiao.info                                         1 Online, Local, rgmanager
 node2.mingxiao.info                                         2 Online, rgmanager
 node3.mingxiao.info                                         3 Online, rgmanager
 Service Name                                   Owner (Last)                                   State         
 ------- ----                                   ----- ------                                   -----         
 service:webservice                             node1.mingxiao.info                            started
时间: 2024-10-13 02:05:46

RHCS +GFS2+iscsi+cLVM实现高可用web集群的相关文章

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

corosycn&pacemaker的高可用web集群

基本拓扑: 两台高可用节点: node1:192.168.191.112 node2:192.168.191.113 NFS服务器:192.168.191.111 web服务的流动IP:192.168.191.199 一.准备工作: 1).node1---node2 基于主机名通信 1.编辑/etc/hosts文件添加如下内容 192.168.191.112 node1.liaobin.com node1 192.168.191.113 node2.liaobin.com node2 2.编辑/

heartbeat httpd nfs 实现高可用web集群

一 环境准备 二 拓扑结构 三 前提条件 四 安装相关软件 五 配置heartbeat 六 测试web集群 七 问题汇总 八 共享存储 一 环境准备 操作系统 centos 6.4 x86_64 最小化安装 如使用yum 安装的方式 centos5.5 安装的是V2.X ,centos 6.4 安装的是V3.X YUM 安装 Vim man ntp "development tools" "server platform development" "des

Nginx+Tomcat+Keepalived实现高可用web集群

Nginx+Tomcat+Keepalived实现高可用web集群: 环境:CenOS 6.5Nginx-Master:10.10.10.128Nginx-Backup:10.10.10.129Tomcat1:10.10.10.130Tomcat2:10.10.10.131VIP:10.10.10.100 一.环境基础配置1.更换国内yum源2.关闭防火墙.SELinux3.时间同步 二.Web端安装Web服务 1.查看是否安装JDK [[email protected] ~]# java -v

Keepalived+Nginx+Tomcat 实现高可用Web集群(转)

Keepalived+Nginx+Tomcat 实现高可用Web集群 溯水心生 关注 2018.01.08 20:28* 字数 1382 阅读 965评论 1喜欢 9 集群规划图片 一.Nginx的安装过程 1.下载Nginx安装包,安装依赖环境包 (1)安装 C++编译环境 yum -y install gcc #C++ (2)安装pcre yum -y install pcre-devel (3)安装zlib yum -y install zlib-devel (4)安装Nginx 定位到n

heartbeat v2配置高可用web集群和基于nfs搭建MySQL高可用集群

安装环境:Centos 6.4, httpd2.4,mysql5.5,heartbeat v2 提供两台机器node1和node2,在/etc/hosts文件中添加名称解析,并且主机名称要与节点名称要相同,即uname -n的名称要和hosts定义的名称必须一样. #   IP                         HOSTNAME             ALIAS 10.204.80.79     node1.mylinux.com     node1 10.204.80.80  

corosync+pacemaker+crmsh的高可用web集群的实现

网络规划: node1:eth0:172.16.31.10/16 node2: eth0: 172.16.31.11/16 nfs:   eth0: 172.16.31.12/15 注: nfs在提供NFS服务的同时是一台NTP服务器,可以让node1和node2同步时间的. node1和node2之间心跳信息传递依靠eth0传递 web服务器的VIP是172.16.31.166/16 架构图:跟前文的架构一样,只是节点上安装的高可用软件不一致: 一.高可用集群构建的前提条件 1.主机名互相解析

corosync+pacemaker做高可用web集群

实验环境: 两台主机:  centos6.5+httpd2.4+php5.5组成web的基本环境,并且web页面访问正常,并且确保httpd24服务不会开机启动. node1.mylinux.com      10.204.80.79 node2.mylinux.com      10.204.80.80 我这里启用ansible来方便对两个节点的管理,启用一台主机做为管理节点,IP:10.204.80.71,在三台主机的hosts里同都添加对应的名称解析,管理节点对node1,node2两个节

CentOS Linux 负载均衡高可用WEB集群之Nginx+Keepalived配置

Nginx+Keepalived实现负载均衡高可用的WEB服务集群,nginx作为负载均衡器,keepalived作为高可用,当其中的一台负载均衡器(nginx)发生故障时可以迅速切换到备用的负载均衡器(nginx),保持业务的连续性. 1.服务器的环境配置及IP分配 操作系统:CentOS release 6.7 (Final) nginx版本:nginx/1.8.0 keepalived版本:Keepalived v1.2.13 Nginx + keepalived服务器的IP分配表 服务器