高可用集群

高可用集群是指以减少服务中断时间为目的的服务器集群技术。它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。高可用集群的应用系统有多样化发展趋势,用途也越来越多样化,同时带来了配置及可操作性方面的复杂性,因此选择好的高可用软件至关重要。

实验环境:真机:172.25.254.29
                    server4:172.25.29.4
                    server5:172.25.29.5
                    server6:172.25.29.6

一.首先配置好高可用集群yum源;每台实验服务器一样;相互解析。

[[email protected] ~]# vim /etc/yum.repos.d/yum.repo
          
[base]
name=Instructor Server Repository
baseurl=http://172.25.29.450/rhel6.5
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

# HighAvailability rhel6.5
[HighAvailability]
name=Instructor HighAvailability Repository
baseurl=http://172.25.29.450/rhel6.5/HighAvailability
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

# LoadBalancer packages
[LoadBalancer]
name=Instructor LoadBalancer Repository
baseurl=http://172.25.29.450/rhel6.5/LoadBalancer
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

# LoadBalancer packages
[LoadBalancer]
name=Instructor LoadBalancer Repository
baseurl=http://172.25.29.450/rhel6.5/LoadBalancer
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

# ResilientStorage
[ResilientStorage]
name=Instructor ResilientStorage Repository
baseurl=http://172.25.29.450/rhel6.5/ResilientStorage
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

# ScalableFileSystem
[ScalableFileSystem]
name=Instructor ScalableFileSystem Repository
baseurl=http://172.25.29.450/rhel6.5/ScalableFileSystem
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[[email protected] ~]# yum clean all
[[email protected] ~]# yum repolist

[[email protected] ~]#vim /etc/hosts

172.25.29.4 server4.example.com     
172.25.29.5 server5.example.com
172.25.29.6 server6.example.com
172.25.254.29
二.server4和server5作为高可用服务器;server6安装lici用作图形界面

[[email protected] ~]# yum install -y ricci
[[email protected] ~]# passwd ricci
更改用户 ricci 的密码 。
新的 密码:
无效的密码: 它基于字典单词
无效的密码: 过于简单
重新输入新的 密码:
passwd: 所有的身份验证令牌已经成功更新。
[[email protected] ~]# /etc/init.d/ricci start
[[email protected] ~]# chkconfig ricci on

[[email protected] ~]# yum install -y ricci
[[email protected] ~]# passwd ricci
更改用户 ricci 的密码 。
新的 密码:
无效的密码: 它基于字典单词
无效的密码: 过于简单
重新输入新的 密码:
passwd: 所有的身份验证令牌已经成功更新。
[[email protected] ~]# /etc/init.d/ricci start
[[email protected] ~]# chkconfig ricci on

[[email protected] ~]# yum install luci -y
 [[email protected] ~]# /etc/init.d/luci start
  Start luci...                                              [确定]
  Point your web browser to https://server6.example.com:8084 (or equivalent) to access luci

打开连接把server4和server5合成一个高可用组;

三.真机安装fence

[[email protected] ~]# rpm -qa|grep fence
fence-virtd-serial-0.3.2-1.el7.x86_64
fence-virtd-0.3.2-1.el7.x86_64
fence-virtd-libvirt-0.3.2-1.el7.x86_64
fence-virtd-multicast-0.3.2-1.el7.x86_64
[[email protected] ~]# yum install -y fence-virtd*
[[email protected] ~]# fence_virtd -c

Module search path [/usr/lib64/fence-virt]:

Listener module [multicast]:

Multicast IP Address [225.0.0.12]:

Multicast IP Port [1229]:

Interface [br0]:

Key File [/etc/cluster/fence_xvm.key]:

Backend module [libvirt]:

Replace /etc/fence_virt.conf with the above [y/N]? y

[[email protected] ~]# systemctl restart fence_virtd
[[email protected] ~]# systemctl status fence_virtd
[[email protected] ~]# netstat -anulp |grep 1229
udp        0      0 0.0.0.0:1229            0.0.0.0:*                           205

[[email protected] ~]# cd /etc/
[[email protected] etc]# mkdir cluster/
[[email protected] etc]#  dd if=/dev/random of=/etc/cluster/fence_xvm.key bs=128 count=1
[[email protected] cluster]# ls
fence_xvm.key
[[email protected] cluster]# file fence_xvm.key
fence_xvm.key: data
[[email protected] cluster]# systemctl restart fence_virtd
[[email protected] cluster]# vim /etc/fence_virt.conf
[[email protected] cluster]# scp fence_xvm.key [email protected]:/etc/cluster/
[email protected]‘s password:
fence_xvm.key                                                  100%  128     0.1KB/s   00:00    
[[email protected] cluster]# scp fence_xvm.key [email protected]:/etc/cluster/
[email protected]‘s password:
fence_xvm.key                                                  100%  128     0.1KB/s   00:00

四.对集群进行设置;让集群统一管理服务器

[[email protected] ~]# clustat    查看状态
Cluster Status for www @ Sat Sep 17 18:56:42 2016
Member Status: Quorate

Member Name                                     ID   Status
 ------ ----                                     ---- ------
 server4.example.com                                 1 Online
 server5.example.com                                 2 Online, Local

[[email protected] ~]#fence_node server5.example.com  
@@@@@用server4把server5  (fence)server5重启

[[email protected] ~]# yum install httpd -y  (安装httpd不要开启;让组帮助开启)

[[email protected] ~]# cd /var/www/html
[[email protected] html]# vim index.html  (添加发布内容方便验证)
[[email protected] cluster]#echo c > /proc/sysrq-trigger (当server4损坏时组会把server4 踢出去server5接手;server4重启后又会自动加入组中等待)

[[email protected] cluster]#/etc/init.d/httpd stop (当关掉server5的httpd时组会自动把server5踢出去;server4接手;server5重器后又会自动加入组中)

时间: 2024-09-30 19:00:39

高可用集群的相关文章

Linux高可用集群方案之heartbeat基础原理及逻辑架构

 这篇文章我们主要学习heartbeat高可用集群的基础原理及逻辑架构,以及heartbeat的简单配置  ll  本文导航    · heartbeat之基本原理   · heartbeat之集群组件   · heartbeat之心跳连接   · heartbeat之脑裂(资源争用.资源隔离) · heartbeat之配置文件   · heartbeat至高可用集群配置  ll  要求  掌握heartbeat高可用集群的相关组件及简单配置   heartbeat之基本原理  heartbea

CentOS 7 corosync高可用集群的实现

CentOS 7 corosync高可用集群的实现 =============================================================================== 概述: =============================================================================== 在CentOS 7上实现高可用集群案例  1.corosync安装配置 ★CentOS 7: corosync v2 (

高可用集群和负载均衡集群理解

高可用集群 HA(hight avaliable)即高可用,又被叫双机热备 防止服务器中断,影响对外提供服务 协议:Heartbeat使用心跳进行通信和选举 含义:一般是指当集群中的任意一个节点失效的情况下,节点上的所有任务自动转移到其他正常的节点上,并且此过程不影响整个集群的运行,不影响业务的提供. 负载均衡集群 LB(load balance)负载均衡集群 防止服务器发生瓶颈 协议:Keepalived使用VRRP协议进行通信和选举 用于用户请求量过大,服务器发生瓶颈,通过负载均衡,让用户可

linux 下heartbeat简单高可用集群搭建

Heartbeat 项目是 Linux-HA 工程的一个组成部分,它实现了一个高可用集群系统.通过Heartbeat我们可以实现双机热备,以实现服务的持续性. linux下基于heartbeat的简单web服务的高可用集群搭建 首先规划好两台主机作为heartbeat的双机热备,命名为node1.lvni.cc(主) ;node2.lvni.cc, node1的eth0IP :192.168.157.148  Vip eth0:0:192.168.157.149 node2的eth0IP :19

CoroSync + Drbd + MySQL 实现MySQL的高可用集群

Corosync + DRBD + MySQL 构建高可用MySQL集群 节点规划: node1.huhu.com172.16.100.103 node2.huhu.com172.16.100.104 资源名称规划 资源名称:可以是除了空白字符外的任意ACSII码字符 DRBD设备:在双节点上,此DRBD设备文件,一般为/dev/drbdN,主设备号147 磁盘:在双方节点上,各自提供存储设备 网络配置:双方数据同步所使用的网络属性 DRBD从Linux内核2.6.33起已经整合进内核 1.配置

利用heartbeat的ldirectord实现ipvs的高可用集群构建

集群架构拓扑图: 网络规划: 两台LVS server:(两台LVS也可以为用户提供错误页面) node1:172.16.31.10 node2:172.16.31.11 VIP:172.16.31.180 ipvs规则内包含2台Real Server:(后面的RS指的就是后端的web服务器) rs1:172.16.31.13 rs2:172.16.31.14 我们还需要错误页面提供者:我们选择LVS作为sorry server,所有的real server不可用时就指向这个sorry serv

linux高可用集群(HA)原理详解

高可用集群 一.什么是高可用集群 高可用集群就是当某一个节点或服务器发生故障时,另一个节点能够自动且立即向外提供服务,即将有故障节点上的资源转移到另一个节点上去,这样另一个节点有了资源既可以向外提供服务.高可用集群是用于单个节点发生故障时,能够自动将资源.服务进行切换,这样可以保证服务一直在线.在这个过程中,对于客户端来说是透明的. 二.高可用集群的衡量标准 高可用集群一般是通过系统的可靠性(reliability)和系统的可维护性(maintainability)来衡量的.通常用平均无故障时间

MM(主主数据库)+keepalived主备高可用集群

博客分享的第一篇技术文章: 项目主要搭建:主主数据库高可用集群搭建. 数据库互为主备,应用技术:MM+keepalived 使用的是虚拟机搭建的实验向大家展示: 数据库1:192.168.4.7 数据库2:192.168.4.77 VIP:192.168.4.68 web1:192.168.4.69 web2:192.168.4.70 一.安装mysql,部署主主同步结构. 直接yum安装 配置主主同步: 由于主数据库192.168.4.7里面存放着数据,所以需要先导出数据,方法很多,我们采取m

MySQL主从复制、读写分离、高可用集群搭建

MySQL主从复制.读写分离.高可用集群搭建  一.服务介绍   1.1 Keepalived     Keepalived,见名知意,即保持存活,其目的是解决单点故障,当一台服务器宕机或者故障时自动切换到其他的服务器中.Keepalived是基于VRRP协议实现的.VRRP协议是用于实现路由器冗余的协议,VRRP协议将两台或多台路由器设备虚拟成虚拟设备,可以对外提供虚拟路由器IP(一个或多个),即漂移IP(VIP). 1.2 ProxySQL ProxySQL是一个高性能,高可用性的MySQL

企业中MySQL高可用集群架构三部曲之MM+keepalived

各位老铁们,老张与大家又见面了.看到各位在博客里面给我的留言和访问量的情况,我很是欣慰,也谢谢大家对我的认可.我写这些博客,就是想把自己对于MySQL数据库的一些看法和自己平时的实战经验分享出来,我们可以一起探讨,共同进步.也保证今后只要一有空就更新博文,推出更多的干货. 我的学生经常对我说:"张老师,每次我遇到报错,有时还是会百度,但是最烦的是不知道百度哪篇帖子说的是正确的".其实这些呢,都是因为自己还没有对MySQL数据库核心知识的不熟悉,和对技术掌握的不牢固.平时下得功夫还是不到