创建RHCS集群环境

创建RHCS集群环境

1.1 问题

准备四台KVM虚拟机,其三台作为集群节点,一台安装luci并配置iSCSI存储服务,实现如下功能:

  • 使用RHCS创建一个名为tarena的集群
  • 集群中所有节点均需要挂载iSCSI共享存储
  • 使用集群中任意节点对iSCSI设置进行分区格式化
  • 安装luci的虚拟主机要求额外添加一块20G硬盘
  • 物理主机IP地址为192.168.4.1,主机名称为desktop1.example.com

1.2 方案

使用4台虚拟机,1台作为luci和iSCSI服务器、3台作为节点服务器,拓扑结构如图-1所示。

图-1

所有主机的主机名及对应的IP地址如表-1所示。

表-1 主机名称及对应IP地址表

1.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:安装前准备

1)为所有节点配置yum源,注意所有的虚拟主机均需要挂载安装光盘。

  1. [[email protected] ~]# mount /dev/cdrom /media
  2. [[email protected] ~]# rm -rf /etc/yum.repos.d/*
  3. [[email protected] ~]# vim /etc/yum.repos.d/dvd.repo
  4. [dvd]
  5. name=red hat
  6. baseurl=file:///media/
  7. enabled=1
  8. gpgcheck=0
  9. [HighAvailability]
  10. name=HighAvailability
  11. baseurl=file:///media/HighAvailability
  12. enabled=1
  13. gpgcheck=0
  14. [LoadBalancer]
  15. name=LoadBalancer
  16. baseurl=file:///media/LoadBalancer
  17. enabled=1
  18. gpgcheck=0
  19. [ResilientStorage]
  20. name=ResilientStorage
  21. baseurl=file:///media/ResilientStorage
  22. enabled=1
  23. gpgcheck=0
  24. [ScalableFileSystem]
  25. name=ScalableFileSystem
  26. baseurl=file:///media/ScalableFileSystem
  27. enabled=1
  28. gpgcheck=0
  29. [[email protected] ~]# yum clean all
  30. [[email protected] ~]# mount /dev/cdrom /media
  31. [[email protected] ~]# rm –rf /etc/yum.repos.d/*
  32. [[email protected] ~]# vim /etc/yum.repos.d/dvd.repo
  33. [dvd]
  34. name=red hat
  35. baseurl=file:///media/
  36. enabled=1
  37. gpgcheck=0
  38. [HighAvailability]
  39. name=HighAvailability
  40. baseurl=file:///media/HighAvailability
  41. enabled=1
  42. gpgcheck=0
  43. [LoadBalancer]
  44. name=LoadBalancer
  45. baseurl=file:///media/LoadBalancer
  46. enabled=1
  47. gpgcheck=0
  48. [ResilientStorage]
  49. name=ResilientStorage
  50. baseurl=file:///media/ResilientStorage
  51. enabled=1
  52. gpgcheck=0
  53. [ScalableFileSystem]
  54. name=ScalableFileSystem
  55. baseurl=file:///media/ScalableFileSystem
  56. enabled=1
  57. gpgcheck=0
  58. [[email protected] ~]# yum clean all
  59. [[email protected] ~]# mount /dev/cdrom /media
  60. [[email protected] ~]# rm -rf /etc/yum.repos.d/*
  61. [[email protected] ~]# vim /etc/yum.repos.d/dvd.repo
  62. [dvd]
  63. name=red hat
  64. baseurl=file:///media/
  65. enabled=1
  66. gpgcheck=0
  67. [HighAvailability]
  68. name=HighAvailability
  69. baseurl=file:///media/HighAvailability
  70. enabled=1
  71. gpgcheck=0
  72. [LoadBalancer]
  73. name=LoadBalancer
  74. baseurl=file:///media/LoadBalancer
  75. enabled=1
  76. gpgcheck=0
  77. [ResilientStorage]
  78. name=ResilientStorage
  79. baseurl=file:///media/ResilientStorage
  80. enabled=1
  81. gpgcheck=0
  82. [ScalableFileSystem]
  83. name=ScalableFileSystem
  84. baseurl=file:///media/ScalableFileSystem
  85. enabled=1
  86. gpgcheck=0
  87. [[email protected] ~]# yum clean all
  88. [[email protected] ~]# mount /dev/cdrom /media
  89. [[email protected] ~]# rm -rf /etc/yum.repos.d/*
  90. [[email protected] ~]# vim /etc/yum.repos.d/dvd.repo
  91. [dvd]
  92. name=red hat
  93. baseurl=file:///media/
  94. enabled=1
  95. gpgcheck=0
  96. [HighAvailability]
  97. name=HighAvailability
  98. baseurl=file:///media/HighAvailability
  99. enabled=1
  100. gpgcheck=0
  101. [LoadBalancer]
  102. name=LoadBalancer
  103. baseurl=file:///media/LoadBalancer
  104. enabled=1
  105. gpgcheck=0
  106. [ResilientStorage]
  107. name=ResilientStorage
  108. baseurl=file:///media/ResilientStorage
  109. enabled=1
  110. gpgcheck=0
  111. [ScalableFileSystem]
  112. name=ScalableFileSystem
  113. baseurl=file:///media/ScalableFileSystem
  114. enabled=1
  115. gpgcheck=0
  116. [[email protected] ~]# yum clean all

2)修改/etc/hosts并同步到所有主机。

  1. [[email protected] ~]# vim /etc/hosts
  2. 192.168.4.1        node1.example.com
  3. 192.168.4.2        node2.example.com
  4. 192.168.4.3        node3.example.com
  5. 192.168.4.4        luci.example.com
  6. [[email protected] ~]# for i in {1..3};do scp /etc/hosts 192.168.4.$i:/etc/;done

3)所有节点关闭NetworkManager、SELinux服务。

  1. [[email protected] ~]# service NetworkManager stop
  2. [[email protected] ~]# chkconfig NetworkManager off
  3. [[email protected] ~]# sed -i ‘/SELINUX=/s/enforcing/permissive/‘ /etc/sysconfig/selinux
  4. [[email protected] ~]# setenforce 0
  5. [[email protected] ~]# iptables -F; service iptables save
  6. [[email protected] ~]# service NetworkManager stop
  7. [[email protected] ~]# chkconfig NetworkManager off
  8. [[email protected] ~]# sed -i ‘/SELINUX=/s/enforcing/permissive/‘ /etc/sysconfig/selinux
  9. [[email protected] ~]# setenforce 0
  10. [[email protected] ~]# iptables -F; service iptables save
  11. [[email protected] ~]# service NetworkManager stop
  12. [[email protected] ~]# chkconfig NetworkManager off
  13. [[email protected] ~]# sed -i ‘/SELINUX=/s/enforcing/permissive/‘ /etc/sysconfig/selinux
  14. [[email protected] ~]# setenforce 0
  15. [[email protected] ~]# iptables -F; service iptables save
  16. [[email protected] ~]# service NetworkManager stop
  17. [[email protected] ~]# chkconfig NetworkManager off
  18. [[email protected] ~]# sed -i ‘/SELINUX=/s/enforcing/permissive/‘ /etc/sysconfig/selinux
  19. [[email protected] ~]# setenforce 0
  20. [[email protected] ~]# iptables -F; service iptables save

步骤二:部署iSCSI服务

1)在luci主机上部署iSCSI服务器,将/dev/sdb使用iSCSI服务共享。

提示:服务器IQN名称为: iqn.2015-06.com.example.luci:cluster。

  1. [[email protected] ~]# yum  -y  install  scsi-target-utils        //安装软件
  2. .. ..
  3. [[email protected] ~]# rpm  -q  scsi-target-utils
  4. scsi-target-utils-1.0.24-10.el6.x86_64
  5. [[email protected] ~]# vim /etc/tgt/targets.conf
  6. <target iqn.2015-06.com.example.luci:cluster>
  7. # List of files to export as LUNs
  8. backing-store /dev/sdb                            //定义存储设备
  9. initiator-address 192.168.4.0/24                    //定义ACL
  10. </target>
  11. [[email protected] ~]# service  tgtd  start                     //启动服务
  12. Starting SCSI target daemon:                               [  OK  ]
  13. [[email protected] ~]# chkconfig  tgtd  on

2)所有节点服务器挂载该iSCSI共享。

  1. [[email protected] ~]# yum -y install iscsi-initiator-utils    //安装软件
  2. [[email protected] ~]# iscsiadm -m discovery -t sendtargets -p 192.168.4.4:3260
  3. [[email protected] ~]# iscsiadm -m node -T \
  4. >iqn.2015-06.com.example.luci:cluster \
  5. >-p 192.168.4.4:3260 -l                                //挂载iSCSI共享
  6. [[email protected] ~]# iscsiadm -m node -T \
  7. >iqn.2015-06.com.example.luci:cluster \
  8. >-p 192.168.4.4:3260 -l
  9. [[email protected] ~]# yum -y install iscsi-initiator-utils    //安装软件
  10. [[email protected] ~]# iscsiadm -m discovery -t sendtargets -p 192.168.4.4:3260
  11. [[email protected] ~]# iscsiadm -m node -T \
  12. >iqn.2015-06.com.example.luci:cluster \
  13. >-p 192.168.4.4:3260 –l                                //挂载iSCSI共享
  14. [[email protected] ~]# iscsiadm -m node -T \
  15. >iqn.2015-06.com.example.luci:cluster \
  16. >-p 192.168.4.4:3260 -l
  17. [[email protected] ~]# yum -y install iscsi-initiator-utils    //安装软件
  18. [[email protected] ~]# iscsiadm -m discovery -t sendtargets -p 192.168.4.4:3260
  19. [[email protected] ~]# iscsiadm -m node -T \
  20. >iqn.2015-06.com.example.luci:cluster \
  21. >-p 192.168.4.4:3260 -l                                //挂载iSCSI共享
  22. [[email protected] ~]# iscsiadm -m node -T \
  23. >iqn.2015-06.com.example.luci:cluster \
  1. >-p 192.168.4.4:3260 –l

步骤三:安装集群软件

1)在luci.example.com主机上安装luci,并启动服务。

  1. [[email protected] ~]# yum –y install luci
  2. [[email protected] ~]# service luci start;chkconfig luci on

2)在所有的集群节点中安装ricci,并启动服务。

  1. [[email protected] ~]# yum -y install ricci
  2. [[email protected] ~]# echo "11111" |passwd --stdin ricci
  3. [[email protected] ~]# service ricci start;chkconfig ricci on
  4. [[email protected] ~]# yum -y install ricci
  5. [[email protected] ~]# echo "11111" |passwd --stdin ricci
  6. [[email protected] ~]# service ricci start;chkconfig ricci on
  7. [[email protected] ~]# yum -y install ricci
  8. [[email protected] ~]# echo "11111" |passwd --stdin ricci
  9. [[email protected] ~]# service ricci start;chkconfig ricci on

步骤四:配置集群

1)浏览器访问luci,任意主机使用浏览器访问即可。

  1. [[email protected] ~]# firefox https://luci.example.com:8084

2)创建集群。

使用浏览器访问luici页面后,点击“Manage Clusters“页面,点击”Create“按钮创建一个新的集群,如图-2所示。

图-2

接下来,在弹出的回话框中,输入集群的名称“tarena“,勾选”Download Packages“、“Reboot Nodes Befor Joining Cluster”、“Enable Shared Storage Support”,效果如图-3所示。

图-3

等待所有的节点重启之后,在luci页面将显示如图-4所示的页面,代表所有节点以及加入到了tarena集群中。

图-4

提示:如果节点重启后,有部分节点无法自动加入集群中,可以将正常的节点系统中/etc/cluster/cluster.conf文件同步到其他失败的节点中,并确保失败节点的cman和rgmanager服务为启动状态即可。

时间: 2024-11-08 20:29:04

创建RHCS集群环境的相关文章

Cluster基础(四):创建RHCS集群环境、创建高可用Apache服务

一.创建RHCS集群环境 目标: 准备四台KVM虚拟机,其三台作为集群节点,一台安装luci并配置iSCSI存储服务,实现如下功能: 使用RHCS创建一个名为tarena的集群 集群中所有节点均需要挂载iSCSI共享存储 使用集群中任意节点对iSCSI设置进行分区格式化 安装luci的虚拟主机要求额外添加一块20G硬盘 物理主机IP地址为192.168.4.1,主机名称为desktop1.example.com 方案: 使用4台虚拟机,1台作为luci和iSCSI服务器.3台作为节点服务器,拓扑

RHCS之用css_tool命令创建HA集群及创建gfs2集群文件系统

准备环境 node1:192.168.139.2 node2:192.168.139.4 node4:192.168.139.8 node5:192.168.139.9 node1 作为target端 node2 node4 node5 作为initiator端 并且将node2 node4 node5安装cman+rgmanager后配置成一个三节点的RHCS高可用集群,因为gfs2为一个集群文件系统,必须借助HA高可用集群将故障节点Fence掉,及借助Message Layer进行节点信息传

CentOS 6.6 上使用 luci/ricci 安装配置 RHCS 集群

1.配置 RHCS 集群的前提: 时间同步 名称解析,这里使用修改/etc/hosts 文件 配置好 yum 源,CentOS 6 的默认的就行 关闭防火墙(或者开放集群所需通信端口),和selinux, 关闭 NetworkManager 服务 2. RHCS 所需要的主要软件包为 cman 和 rgmanager cman: 是集群基础信息层,在 CentOS 6中依赖 corosync rgmanager: 是集群资源管理器, 类似于pacemaker 的功能 luci: 提供了管理 rh

使用ansible快速配置RHCS 集群 实现WEB站负载均衡高可用(手记)

什么是RHCS RHCS是Red Hat Cluster Suite的缩写,也就是红帽子集群套件,RHCS是一个能够提供高可用性.高可靠性.负载均衡.存储共享且经济廉价的集群工具集合,它将集群系统中三大集群架构融合一体,可以给web应用.数据库应用等提供安全.稳定的运行环境. 更确切的说,RHCS是一个功能完备的集群应用解决方案,它从应用的前端访问到后端的数据存储都提供了一个行之有效的集群架构实现,通过RHCS提供的这种解决方案,不但能保证前端应用持久.稳定的提供服务,同时也保证了后端数据存储的

RHCS集群简介及配置web高可用

                 RHCS集群配置 一.RHCS集群简介 RHCS(Red Hat Cluster Suite)集群是红帽官方提供的子集群套件,它整合了高可用集群.负载均衡集群.存储集群,从而为用户提供了完整的一套从前端到应用到存储的集群解决方案.通过RHCS集群提供的集群服务,可以为web,数据库等关键业务提供高效,稳定的运行环境. 二.RHCS的核心功能 1.负载均衡 RHCS的负载均衡集群通过LVS(Linux Virtual Server)来实现其功能,LVS是由前端的调

RHCS&amp;集群文件系统GFS2&amp;CLVM

RHCS:red hat cluster suite 红帽集群套件,RHCS是一个能够提供高可用性.高可靠性.负载均衡.存储共享且经济廉价的集群工具集合,它将集群系统中三大集群架构融合一体,可以给web应用.数据库应用等提供安全.稳定的运行环境. RHCS提供三个核心功能: 高可用集群:当应用程序出现故障,或系统硬件.网络出现故障时,可以收高可用性管理组件自动.快速从一个节点切换到另一个节点,节点故障转移功能对客户端来说是透明的. 负载均衡集群:RHCS通过LVS提供负载均衡,可以将客户端请求按

RHCS集群原理概述

一. 什么是RHCS RHCS是Red Hat Cluster Suite的缩写,也就是红帽集群套件,RHCS是一个能够提供高可用性.高可靠性.负载均衡.存储共享且经济廉价的集群工具集合,它将集群系统中三大集群架构融合一体,可以给web应用.数据库应用等提供安全.稳定的运行环境. 更确切的说,RHCS是一个功能完备的集群应用解决方案,它从应用的前端访问到后端的数据存储都提供了一个行之有效的集群架构实现,通过RHCS提供的这种解决方案,不但能保证前端应用持久.稳定的提供服务,同时也保证了后端数据存

RHCS集群理论暨最佳实践

RHCS集群理论暨 最佳实践 什么是集群?     集群是一组(>2)相互独立的,通过高速网络互联的计算机组成的集合.群集一般可以分为科学集群,负载均衡集群,高可用性集群三大类.     科学集群是并行计算的基础.它对外就好象一个超级计算机,这种计算机内部由十至上万个独立处理器组成,并且在公共消息传递层上进行通信以运行并发应用程序,像中国的银河,曙光超级计算机.     高可用性集群,当集群中的一个系统发生故障时,集群软件迅速作出反应,将该系统的任务分配至集群中其它正在工作的系统上执行,通过消除

RHCS集群套件之用Luci/Ricci实现Web集群的详细配置

RHCS集群介绍请看http://11107124.blog.51cto.com/11097124/1884048 在RHCS集群中每个集群都必须有一个唯一的集群名称,至少有一个fence设备(实在不行可以使用手动fence_manual),且至少要有三个节点,两个节点必须有仲裁磁盘 准备环境 node1:192.168.139.2 node2:192.168.139.4 node4:192.168.139.8 VIP:192.168.139.10 在node1装luci创建集群,并进行集群管理