CentOS7/RHEL7 pacemaker+corosync高可用集群搭建

目录

一、集群信息... 4

二、集群搭建... 4

1、制作软件源... 4

2、主机基础配置... 5

3、集群基础环境准备... 7

4、集群资源准备... 9

5、资源配置... 11

6、constraint配置... 12

7、stonith配置... 13

8、集群功能验证... 14

三、集群常用命令及作用... 17

1、验证群集安装... 17

2、查看群集资源... 17

3、使用群集脚本... 17

4、STONITH 设备操作... 17

5、查看群集配置... 17

6、管理群集... 18

 

CentOS7/RHEL7高可用集群搭建

一、集群信息

使用光盘镜像安装好两台RHEL7.4系统的虚拟机,主机信息如下:


主机名


node1


node2


IP地址


192.168.110.168


192.168.110.169


系统版本


Red Hat Enterprise Linux Server release 7.4


挂载镜像源


rhel-server-7.4-x86_64-dvd.iso


资源组

(ftp-group)


FTP-VIP:192.168.110.10

FTP-LVM:vg_ftp

FTP-FS:/dev/vg_ftp/lv_ftp

FTP:vsftpd


资源组

(tomcat-group)


TOMCAT-VIP:192.168.110.20

TOMCAT-LVM:vg_tomcat

TOMCAT-FS:/dev/vg_tomcat/lv_tomcat

TOMCAT:tomcat

二、集群搭建

1、制作软件源

●      挂载光盘

●      导入key文件,列出可用源

2、主机基础配置

●      设置主机名

●      关闭防火墙

●      设置selinux为disabled

●      配置host文件

●      节点间配置免密互信

●      同步host文件

●      编辑/etc/chronyd.conf文件,增加时间服务器一行

●      配置时间服务器,使集群节点时间同步

●      设置时间同步,timedatectl输出结果中NTP enabled为yes,已开始同步

●      查看chronyd状态,设置为开机启动

3、集群基础环境准备

●      软件安装

●      修改集群管理账号密码

●      启用并设置集群软件开机自启

●      集群节点认证

●      创建集群

注:

1、命令内容为创建集群的同时在各节点上启动集群并设置为启用状态

●      查看当前集群状态

注:

1、   注意命令输出内容,在尚未配置stonith时,提示需将stonith-enabled属性更改为false(不启用)

2、Online:显示当前在线节点

3、Full list of resources:显示集群的资源列表

 

4、集群资源准备

●      文件系统创建

创建并格式化/dev/mapper/vg_tomcat-lv_tomcat,文件系统格式为xfs

创建并格式化/dev/mapper/vg_ftp-lv_ftp,文件系统格式为xfs

注:

使用共享存储的集群,在节点一上创建好vg、lv之后,节点二上执行命令pvscan --cache /dev/sdb可以将vg,lv信息同步至节点二上

●      创建文件系统挂载点

●      安装vsftp

●      新增用户

新增用户mcbadm,确保node2上mcbadm用户的UID与node1一致,将用户加入haclient集群管理组

●      安装tomcat相关软件包

将lv_tomcat挂在至/home/mcbadm后,将tomcat软件包解压至共享盘上

●      权限更改

更改/home/mcbadm下文件属组及所属者为mcbadm

●      创建tomcat.service文件

编辑/usr/lib/systemd/system/tomcat.service文件,将tomcat服务移交systemd管理

将tomca.service文件放在/usr/lib/systemd/system/目录下,执行systemctl daemon-reload刷新

●      开放halvm功能

将集群的共享存储交由集群管理,执行以下命令,开放halvm功能

●      备份lvm.conf文件

●      编辑lvm.conf文件

查看系统现有vg,放开volume_list的注释,将除过集群共享存储的vg加入中括号内

注意:主机后续添加新的非集群管理vg,必须将vg名加入volume_list内

●      生成initramfs文件

备份/boot/initramfs-$(uname –r).img文件

执行以下命令,重新生成initramfs-$(uname –r).img文件

重启主机

5、资源配置

●      创建资源组ftp-group

FTP-VIP:192.168.110.10/24

FTP-LVM:vg_ftp

FTP-FS:/dev/vg_ftp/lv_ftp,/HOME,xfs

FTP:vsftpd

FTP:vsftpd

●      创建资源组tomcat-group

TOMCAT-VIP:192.168.110.20/24

TOMCAT-LVM:vg_tomcat

TOMCAT-FS:/dev/vg_tomcat/lv_tomcat,/home/mcbadm,xfs

TOMCAT:tomcat

●      检查集群状态

资源组创建完成,集群资源已在各节点上运行

注:

1、集群资源创建,资源创建需要一次完成,所有资源创建完成后加入资源组中,默认情况下,资源组内资源启停顺序为:按照从上往下的顺序依次启动;按照从下往上的顺序依次停止。

2、因已配置vg_ftp和vg_tomcat仅由集群激活启用,当FTP-FS和TOMCAT-FS资源在节点一/二配置完成但尚未加入资源组内时,pcs status会有报错信息提示,提示在节点二/一上找不到相应的设备文件,此为正常现象,将FTP-FS和TOMCAT-FS按顺序加入集群即可。

6、集群资源约束配置

●      检查集群状态

查看当前constraint设置

●      配置资源启停顺序

配置资源组内各资源启停顺序:

ftp-group内启停顺序:FTP-VIP--> FTP-LVM-->FTP-FS-->FTP

tomcat-group内启停顺序:TOMCAT-VIP-->TOMCAT-LVM-->TOMCAT-FS-->TOMCAT

●      配置资源组内各资源依附关系

●      配置资源组在各节点的粘性

ftp-group优先在node1上运行

tomcat-group优先在node2上运行

●      查看constraint设置结果

列出集群资源约束配置内容

7、stonith配置

注:

1、   virtualbox虚拟机无法配置,假设可用

2、   不同类型的服务器所需fence端口不同,惠普硬件服务器需开通fence设备的623/udp端口,vcenter主机需开启80/tcp和443/tcp端口,其余类型请自行查证

●      fence资源信息


主机名


node1


node2


Fence设备地址


192.168.110.101


192.168.110.102


Fence管理账号


Administrator


Fence账户密码


pass1234

●      Fence查看节点状态

通过fence设备查看主机状态,确认fence设备可对主机进行管理

# fence_ipmilan –P –A password –a 192.168.110.101 –l Administrator  –p pass1234 –o status

# Status on

# fence_ipmilan –P –A password –a 192.168.110.102 –l Administrator  –p pass1234 –o status

# Status on

●      增加fence设备

     # pcs stonith create ipmi-fence-node1 fence_ipmilan parms lanplus=’true’ pcmk_host_list=’node1’ pcmk_host_check=’static-list’ action=’reboot’ ipaddr=’192.168.110.101’ login=’Administrator’ passwd=’pass1234’ op monitor interval=30s

# pcs stonith create ipmi-fence-node2 fence_ipmilan parms lanplus=’true’ pcmk_host_list=’node2’ pcmk_host_check=’static-list’ action=’reboot’ ipaddr=’192.168.110.102’ login=’Administrator’ passwd=’pass1234’ op monitor interval=30s

8、集群功能验证

●      切换前检查

查看当前集群状态,集群内各资源已正常运行使用(尚缺少fence设备)

●      禁用节点验证

将node2 设置为standby(不使用),资源组tomcat-group正常切换至node1上运行

# pcs cluster standy node2

注:

1、node2 standby状态下,资源组tomcat-group在node1上正常运行才能证明资源切换正常

unstandy node2,资源组tomcat-group切换回node2运行

# pcs cluster unstandy node2

注:

1、node2 unstandby后,资源组tomcat-group能够自动切回node2上正常运行才能证明资源切换正常

●      重启节点验证

node1 重启,资源组ftp-group切换至node2运行

node1 重启完成,资源组ftp-group切换回node1运行

三、集群常用命令及作用

1、验证群集安装

[shell]# pacemakerd -F                                                             ## 查看pacemaker组件

[shell]# corosync-cfgtool -s                                                        ## 查看corosync序号

[shell]# corosync-cmapctl | grep members              ## corosync 2.3.x

[shell]# corosync-objctl | grep members                          ## corosync 1.4.x

2、查看群集资源

[shell]# pcs resource standards                                       ## 查看支持资源类型

[shell]# pcs resource providers                                        ## 查看资源提供商

[shell]# pcs resource agents                                                     ## 查看所有资源代理

[shell]# pcs resource list                                                    ## 查看支持资源列表

[shell]# pcs stonith list                                                             ## 查看支持Fence列表

[shell]# pcs property list --all                                            ## 显示群集默认变量参数

[shell]# crm_simulate -sL                                        ## 检验资源 score 值

3、使用群集脚本

[shell]# pcs cluster cib ra_cfg                                          ## 将群集资源配置信息保存在指定文件

[shell]# pcs -f ra_cfg resource create                                ## 创建群集资源并保存在指定文件中(而非保存在运行配置)

[shell]# pcs -f ra_cfg resource show                                        ## 显示指定文件的配置信息,检查无误后

[shell]# pcs cluster cib-push ra_cfg                                          ## 将指定配置文件加载到运行配置中

4、STONITH 设备操作

[shell]# stonith_admin -I                                                 ## 查询fence设备

[shell]# stonith_admin -M -a agent_name              ## 查询fence设备的元数据, stonith_admin -M -a fence_vmware_soap

[shell]# stonith_admin --reboot nodename                     ## 测试 STONITH 设备

5、查看群集配置

[shell]# crm_verify -L -V                                                          ## 检查配置有无错误

[shell]# pcs property                                                              ## 查看群集属性

[shell]# pcs stonith                                                                          ## 查看stonith

[shell]# pcs constraint                                                             ## 查看资源约束

[shell]# pcs config                                                                          ## 查看群集资源配置

[shell]# pcs cluster cib                                                                   ## 以XML格式显示群集配置

6、管理群集

[shell]# pcs status                                                                          ## 查看群集状态

[shell]# pcs status cluster

[shell]# pcs status corosync

[shell]# pcs cluster stop [node11]                                 ## 停止群集

[shell]# pcs cluster start --all                                                  ## 启动群集

[shell]# pcs cluster standby node11                                      ## 将节点置为后备standby状态 pcs cluster unstandby node11

[shell]# pcs cluster destroy [--all]                                   ## 删除群集,[--all]同时恢复corosync.conf文件

[shell]# pcs resource cleanup ClusterIP                         ## 清除指定资源的状态与错误计数

[shell]# pcs stonith cleanup vmware-fencing                  ## 清除Fence资源的状态与错误计数

原文地址:https://www.cnblogs.com/liawne/p/9239654.html

时间: 2024-11-01 10:48:59

CentOS7/RHEL7 pacemaker+corosync高可用集群搭建的相关文章

corosync+pacemaker实现高可用集群。

实验环境: 安装: yum install corosync pacemaker -y 复制配置文件 cp corosync.conf.example corosync.conf vim corosync.conf 编辑配置文件: compatibility: whitetank  是否兼容0.8版本的corosynctotem {定义集群之间心跳信息传递层   version: 2 ----版本号        secauth: on ---是否启用安全认证        threads: 0

corosync+pacemaker的高可用集群

基于corosync+pacemaker的高可用集群 Pacemaker即Cluster Resource Manager (简称CRM),用来管理整个HA的控制中心,客户端通过pacemaker来配置管理监控整个集群.它不能提供底层心跳信息传递的功能,它要想与对方节点通信需要借助底层(新拆分的heartbeat或corosync)的心跳传递服务,将信息通告给对方. pacemaker管理资源的工具由命令行界面的crmsh.pcs和图形化界面pygui.hawk等进行管理. 因此,一般来说都是选

CentOS 7 corosync高可用集群的实现

CentOS 7 corosync高可用集群的实现 =============================================================================== 概述: =============================================================================== 在CentOS 7上实现高可用集群案例  1.corosync安装配置 ★CentOS 7: corosync v2 (

MySQL主从复制、读写分离、高可用集群搭建

MySQL主从复制.读写分离.高可用集群搭建  一.服务介绍   1.1 Keepalived     Keepalived,见名知意,即保持存活,其目的是解决单点故障,当一台服务器宕机或者故障时自动切换到其他的服务器中.Keepalived是基于VRRP协议实现的.VRRP协议是用于实现路由器冗余的协议,VRRP协议将两台或多台路由器设备虚拟成虚拟设备,可以对外提供虚拟路由器IP(一个或多个),即漂移IP(VIP). 1.2 ProxySQL ProxySQL是一个高性能,高可用性的MySQL

LVS+Keepalived+Nginx+Tomcat高可用集群搭建(转)

LVS+Keepalived+Nginx+Tomcat高可用集群搭建 最近公司重整架构,十几台服务器而且还要尽可能节约成本.我就谷歌了一下在几种集群之前进行比较最终采用了Keepalived+Nginx做负债均衡高可用.虽然之前也研究过集群,看过很多集群方面的原理和架构,但毕竟没有真正操作过以下案例是在虚拟机中完成实验其实对于高可用搭建来说只用给出Keepalived和Nginx的配置即可后面的一些安装搭建完全是本人项目需要可以不用理睬仅供参考. 本文只是实验搭建记录方便以后在服务器中实施搭建.

linux 下heartbeat简单高可用集群搭建

Heartbeat 项目是 Linux-HA 工程的一个组成部分,它实现了一个高可用集群系统.通过Heartbeat我们可以实现双机热备,以实现服务的持续性. linux下基于heartbeat的简单web服务的高可用集群搭建 首先规划好两台主机作为heartbeat的双机热备,命名为node1.lvni.cc(主) ;node2.lvni.cc, node1的eth0IP :192.168.157.148  Vip eth0:0:192.168.157.149 node2的eth0IP :19

Flume 学习笔记之 Flume NG高可用集群搭建

Flume NG高可用集群搭建: 架构总图: 架构分配: 角色 Host 端口 agent1 hadoop3 52020 collector1 hadoop1 52020 collector2 hadoop2 52020 agent1配置(flume-client.conf): #agent1 name agent1.channels = c1 agent1.sources = r1 agent1.sinks = k1 k2 #set gruop agent1.sinkgroups = g1 #

MHA 高可用集群搭建(二)

MHA 高可用集群搭建安装scp远程控制http://www.cnblogs.com/kevingrace/p/5662839.html yum install openssh-clients mysql5.7运行环境:centos6.51 主机部署 manager:192.168.133.141test1: 192.168.133.138test2:192.168.133.139 (为master1的备用)test3: 192.168.133.140 test1为主,test2和test3为备

Redis安装、主从配置及两种高可用集群搭建

Redis安装.主从配置及两种高可用集群搭建 一.            准备 Kali Linux虚拟机 三台:192.168.154.129.192.168.154.130.192.168.154.131 用户名/密码:root/... ssh设置 修改sshd_config文件,命令为:vim /etc/ssh/sshd_config 将#PasswordAuthentication no的注释去掉,并且将NO修改为YES //kali中默认是yes 将PermitRootLogin wi