配置高可用集群(环境)

一准备三个虚拟机,把/etc/hosts/文件配置好

192.168.43.9 node0

192.168.43.10 node1

192.168.43.11 node2

  • node0,node1,node2上配置时间同步服务器

1:在node0上安装配置chrony服务,同步国内互联网时间服务器的时间

yum install -y chrony

2:编辑配置文件/etc/chrony.conf

修改默认的centos时间同步服务器地址为国内时间同步服务器地址,且允许192.168.43.0/24网段的主机同步时间

server s1a.time.edu.cn iburst

server s1b.time.edu.cn iburst

server s1c.time.edu.cn iburst

server s1d.time.edu.cn iburst

allow 192.168.43.0/24

3:启动chrony

systemctl enable chronyd.service

systemctl start chronyd.service

4:在node1和node2上分别安装chrony,且修改配置文件/etc/chrony.conf,将时间同步指向node0节点

yum install -y chrony

server node0 iburst(配置文件里面修改)

systemctl enable chronyd.service

systemctl start chronyd.service

5:node1,node2验证时间同步

[[email protected] ~]# chronyc sources

210 Number of sources = 1

MS Name/IP address Stratum Poll Reach LastRx Last sample

===============================================================================

^* node0 3 6 17 6 -5684ns[-1595ns] +/- 401ms

高可用集群(服务配置)

pacemaker提供的管理程序有:(rpm -ql pacemaker)

/usr/libexec/pacemaker/cib(集群信息中心 cluster infomation base) 
/usr/libexec/pacemaker/crmd(集群管理器) 
/usr/libexec/pacemaker/lrmd(本地管理器)


  • 在node1和node2节点安装corosync、pacemaker

安装pacemaker( corosync将会被作为依赖安装)

yum install -y pacemaker

  • 在node1上操作

cd /etc/corosync/

cp corosync.conf.example corosync.conf

  • 关于/etc/corosync/corosync.conf配置文件的介绍

1:totem { }:设置节点间的通信方式,通信协议,加密,通信的多播地址,且至少需要定义一个interface{}接口用来传递集群心跳信息

2:loggin { }:设置格式,存储路径,记录的级别

3:quorum { }: 设置投票信息

4:nodelist { }:设置节点个数

  • 由于在message layer层传递心跳信息需要加密,因此先必须生成加密文件

corosync-keygen

  • 编辑配置文件/etc/corosync/corosync.conf,修改配置文件(man corosync.conf 查看配置选项)

totem {

version: 2 # 指定版本号

cluster_name: uplookingcluster # 指定集群名称

crypto_cipher: aes256 # 指定对称加密算法

crypto_hash: sha1 # 指定单向加密算法

interface {

ringnumber: 0 # 指定心跳信息传递的环路id

bindnetaddr: 192.168.43.0 # 指定环路中的网络地址

mcastaddr: 239.255.1.1 # 指定心跳信息通过多播的方式传递的IP通道

mcastport: 5405 # 指定多播的端口

ttl: 1 # 指定多播报文信息的生命周期

}

}

logging {

fileline: off

to_stderr: no

to_logfile: yes # 指定开启日志文件

logfile: /var/log/cluster/corosync.log # 指定日志文件保存的位置

to_syslog: no # 指定不使用系统日志保存日志信息

debug: off

timestamp: on

logger_subsys { # 指定启用仲裁机制

subsys: QUORUM

debug: off

}

}

quorum { # 指定仲裁机制是corosync投票系统

provider: corosync_votequorum

}

nodelist { # 指定节点列表

node {

ring0_addr: 192.168.43.10

nodeid: 1

}

node {

ring0_addr: 192.168.43.11

nodeid: 2

}

}

  • 将corosync.conf配置文件和生成的authkey文件复制到node2节点,注意authkey文件的权限必须是400才能启动corosync

scp authkey corosync.conf node2:/etc/corosync/

  • 在node1和node2上分别启动corosync

systemctl enable corosync.service

systemctl start corosync.service

  • 在node1和node2上分别启动pacemaker

systemctl enable pacemaker.service

systemctl start pacemaker.service

  • 在node1节点上查看,当前集群中谁是DC(DC:Designated Coordinator 指定的协调员 负责管理集群的事务信息)

crm_mon

  • 在node1和node2上配置crmsh的yum仓库,此仓库的RPM包有openSUSE提供,将这个network:ha-clustering:Stable.repo文件直接下载到本地并且命名为crmsh.repo

wget -O /etc/yum.repos.d/crmsh.repo http://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-7/network:ha-clustering:Stable.repo

  • 在node1和node2上通过yum安装crmsh

yum repolist

yum install -y crmsh

  • 在此可以使用crm命令进入交互式接口,实现对集群的管理操作
时间: 2024-08-27 06:10:11

配置高可用集群(环境)的相关文章

Hadoop2.2.0-HA高可用集群环境搭建

Hadoop2.2.0-HA高可用集群环境搭建 集群主机信息 主机名称 主机ip 配置 主要功能 master1 硬盘300G,内存32G,CPU8核 管理主节点 master2 硬盘300G,内存32G,CPU8核 管理备份节点 slave1 硬盘300G,内存8G,CPU4核 数据节点 slave2 硬盘300G,内存8G,CPU4核 数据节点 slave3 硬盘300G,内存8G,CPU4核 数据节点 slave4 硬盘500G,内存4G,CPU2核 mysql数据库 本次集群使用6台物理

18.1集群介绍 18.2 keepalived介绍18.3/18.4/18.5 用keepalived配置高可用集群

- 18.1 集群介绍 - 18.2 keepalived介绍 - 18.3/18.4/18.5 用keepalived配置高可用集群 - 扩展 - heartbeat和keepalived比较 http://blog.csdn.net/yunhua_lee/article/details/9788433  - DRBD工作原理和配置 http://502245466.blog.51cto.com/7559397/1298945 - mysql+keepalived http://lizhenl

集群介绍、keepalived介绍、用keepalived配置高可用集群

集群介绍 Linux集群根据功能划分为两大类:高可用和负载均衡. 1.高可用集群通常为2台服务器,一台工作,另一台作为冗余,当提供服务的机器宕机时,冗余将接替继续提供服务. 实现高可用的开源软件有:heartbeat.Keepalived,其中heartbeat很多bug已无人维护(不推荐使用),所以今后使用Keepalived来搭建高可用集群. 2.负载均衡集群,需要有1台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外就是给用户提供服务的服务器了,这些服

Linux集群(keepalived介绍,Keepalived配置高可用集群,Keepa+mysql

一.Linux集群概述 根据功能划分为两大类:高可用和负载均衡 (1)高可用集群通常为两台服务器,台工作,另外一台作为准备,当提供服务的机器宕机,另外一台将接替继续提供服务. 实现高可用的开源软件有:heartbeat,keepalived (2)负载均衡集群:需要有一台服务器作为分发器,它负责吧用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量最少为2 实现负载均衡的开源软件有LVS,keepalived,haproxy,nginx,商业

18.1-18.5 集群介绍,用keepalived配置高可用集群

18.1 集群介绍 根据功能划分为两大类:高可用和负载均衡 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务大概意思是:高可用一般使用两台机器,功能,角色是一样的.当一台服务器宕机不能服务了,利用另外的服务器顶替. 实现高可用的开源软件有:heartbeat(不建议使用,切换通信速度慢,2010年停止更新,).keepalived(建议使用,有高可用和负载均衡的功能) 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务

集群介绍,keepalived介绍,keepalived配置高可用集群

Linux集群概述 根据功能划分为两大类:高可用和负载均衡 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务 实现高可用的开源软件有:heartbeat.keepalived (推荐) 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2 实现负载均衡的开源软件有LVS.keepalived.haproxy.nginx,商业的有F5.

集群介绍,keepalived介绍,用keepalived配置高可用集群

集群介绍 根据功能划分为两大类:高可用和负载均衡 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务 业内有个综合评分比如4个九,甚至5个九六个九来衡量服务的高可用,一般大企业的核心业务都有高可用,如果一个机器故障,一分钟之内就可以切换到另一台上 实现高可用的开源软件有:heartbeat.keepalived 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务

集群介绍 keepalived介绍 用keepalived配置高可用集群

一.集群介绍二.keepalived介绍VRRP协议是keepalived的一个核心,翻译为中文叫做:虚拟路由冗余协议keepalived是一个类似于layer3, 4 & 5交换机制的软件,也就是我们平时说的第3层.第4层和第5层交换.Keepalived是自动完成,不需人工干涉.简介Keepalived的作用是检测服务器的状态,如果有一台web服务器宕机,或工作出现故障,Keepalived将检测到,并将有故障的服务器从系统中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后Ke

18.1 集群介绍;18.2 keepalived介绍;18.3,18.4,18.5 用keepalived配置高可用集群(上,中,下);

18.1 集群介绍 1. 根据功能划分为两大类:高可用和负载均衡 2. 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务 3. 实现高可用的开源软件有:heartbeat.keepalived 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2 4. 实现负载均衡的开源软件有LVS.keepalived.haproxy.nginx,