通过piranha搭建lvs高可用集群

piranha是Redhat提供一个基于web的lvs配置软件,通过piranha可以省去手工配置lvs的繁琐工作。同时,piranha也可以单独提供集群功能,例如,可以通过piranha激活Director Server的备用主机。这里利用piranha来配置Director Server的双机热备功能。

1.安装与配置piranha

下载piranha的rpm包,在主备Director Server上进行安装

rpm -ivh piranha-*

安装好piranha后,使用rpm -ql piranha查看安装的内容,安装后会产生/etc/sysconfig/ha/lvs.cf配置文件,默认此文件是空的,可以通过piranha提供的web界面配置此文件,也可以手动编辑此文件。编辑好的lvs.cf文件内容大致如下

more /etc/sysconfig/ha/lvs.cf

serial_no = 18            #序号

primary = 192.168.60.130  #指定主Director Server的真实ip地址

service = ipvs            #指定双机的服务名

backup_active = 1         #是否激活备用Director Server。0表示不激活,1表示激活

backup = 192.168.12.131 #这里指定备用Director Server的真实IP地址,如果没有备用

#Director Server,可以用0.0.0.0代替

heartbeat = 1          #是否开启心跳,1表示开启,0表示不开启

heartbeat_port = 539   #指定心跳UDP的通信端口

keepalive = 5          #心跳间隔时间,单位是秒

deadtime = 10          #如果主Director Server在deadtime(s)后没有响应,那么备

#用Director Server就会接管主Director Server的服务

network = nat   #指定LVS的工作模式,director表示DR模式,nat表示NAT模式,

#tunnel表示TUN模式

debug_level = NONE # 定义debug的调试信息级别

virtual www.ixdba.net{  #指定虚拟服务的名称

active = 1              #是否激活此服务

address = 192.168.12.200 eth0:0 #虚拟服务绑定的虚拟IP及网络设备名

port = 80               #虚拟服务的端口

send = "GET / HTTP/1.0\r\n\r\n" #向real server发送验证字符串

expect = "HTTP"   #real server服务器正常运行时应该返回的文本应答信息,用来判断

#Real Server是否正常工作

use_regex = 0    #expect选项中是否使用正则表达式,0表示不使用,1表示使用

load_monitor = none  #LVS中Director Server能够使用rup或者ruptime来监视各个Real

#Server的负载状态。该选项有3个可选值,rup、ruptime和none,

#如果选择rup,每个Real server就必须运行rstatd服务,如果选

#择了ruptime,每个Real server就必须运行rwhod服务

scheduler = rr      #指定LVS的调度算法

protocol = tcp      #虚拟服务使用的协议类型

timeout = 6         #real server失效后从lvs路由列表中移除失效Real server所必须

#持续时间,以秒为单位

teentry = 15  #某个real server被移除后,重新加入lvs路由列表中必须持续的时间,

#单位s

quiesce_server = 0 #如果此选项为1,那么当某个新节点的加入集群时,最少连接数会

#被重设为0,因此lvs会发送大量的请求到此服务器节点,造成新的

#节点服务阻塞,建议设置为0

server RS1 {               #指定Real Server服务名

address = 192.168.12.132   #指定Real Server的IP地址

active = 1                 #是否激活Real Server服务

weight = 1    #指定此Real Server的权值,是整数值。

}

server RS2 {

address =192.168.12.133

active = 1

weight = 1

}

}

接着,使用nat模式还需要对两个Real Server节点进行配置,也就是创建/etc/init.d/lvsrs脚本

lvsrs脚本建本人博客

2.启动通过piranha配置的lvs集群系统

将编辑好的lvs.cf从Director Server的主节点复制到备用节点,然后在主、备节点上分别启动pulse服务,即启动lvs服务

service pulse start

接下来,还要在主备节点上启用系统包转发功能(其实只有在lvs nat模式下需要)

echo "1" >/proc/sys/net/ipv4/ip_porward

最后,在两个Real Server节点上执行lvsrs脚本

/etc/init.d/lvsrs start

完毕

时间: 2024-11-06 07:52:35

通过piranha搭建lvs高可用集群的相关文章

通过keepalived搭建lvs高可用集群

1.配置keepalived Keepalived的配置仅需要一个配置文件即可完成对HA cluster和LVS服务节点监控,在通过Keepalived搭建高可用的LVS集群实例中,主.备Director Server都需要安装Keepalived软件,安装成功后,默认的配置文件路径(可以通过rpm -ql keepalived查看)是:/etc/keppalived/keeplived.conf.一个完整的keepalived的配置文件由3个部分组成,分别是全局定义部分.vrrp实例定义部分以

搭建HA高可用集群

搭建HA高可用集群 一.搭建集群的准备环境 有三台机器,两台上装ricci,另外一台装luci Luci管理机:172.25.47.6 Ricci节点:172.25.47.4   172.25.47.5 Yum仓库: Yum仓库中要指向其他的一些包 注意:yum仓库一般是从Server目录中下载包,但是也有一些其他的包在其他的目录下,因此此次yum 源的配置会和以往不一样 Yum源中配置的是这几个模块: 防火墙方面: 永久关闭防火墙 Selinux方面: 由于这些套件是redhat自带的,所以可

LVS高可用集群搭建

最近公司重整架构,前端使用LVS做负债均衡,虽然之前也研究过集群,看过很多LVS原理和架构,但毕竟没有真正操作过,以下案例是在虚拟机中完成实验,记录一下,方便以后在服务器中实施搭建.  架构图如下: 前提介绍:本案例采用Centos7+Keepalived1.3.5+Tomcat9+Mysql5.6+Redis3.2.8+Rabbitmq3.6.10 集群实现的功能有: 1):实现单点访问,利用keepalived的vip实现对不同的后端服务器进行访问: 2):健康检查,利用keepalived

Keepalived+LVS+nginx搭建nginx高可用集群

nginx是一款非常优秀的反向代理工具,支持请求分发,负载均衡,以及缓存等等非常实用的功能.在请求处理上,nginx采用的是epoll模型,这是一种基于事件监听的模型,因而其具备非常高效的请求处理效率,单机并发能力能够达到上百万.nginx接收到的请求可以通过负载均衡策略分发到其下一级的应用服务器,这些服务器一般是以集群方式部署的,因而在性能不足的情况下,应用服务器可以通过加机器的方式扩展流量.此时,对于一些特大型的网站,性能的瓶颈就来自于nginx了,因为单机的nginx的并发能力是有上限的,

heartbeat v2配置高可用web集群和基于nfs搭建MySQL高可用集群

安装环境:Centos 6.4, httpd2.4,mysql5.5,heartbeat v2 提供两台机器node1和node2,在/etc/hosts文件中添加名称解析,并且主机名称要与节点名称要相同,即uname -n的名称要和hosts定义的名称必须一样. #   IP                         HOSTNAME             ALIAS 10.204.80.79     node1.mylinux.com     node1 10.204.80.80  

Spark 系列(七)—— 基于 ZooKeeper 搭建 Spark 高可用集群

一.集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 Worker 服务.同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop002 和 hadoop003 上分别部署备用的 Master 服务,Master 服务由 Zookeeper 集群进行协调管理,如果主 Master 不可用,则备用 Master 会成为新的主 Master. 二.前置条件 搭建 Spark 集群前,需要保证 JDK 环境.Zookeeper 集群和

mysql+mycat搭建稳定高可用集群,负载均衡,主备复制,读写分离

主要思路 测试环境 实现mysql主备复制 配置A主mysql 配置B备mysql 验证同步配置结果 验证是否同步 关闭B备mysql的同步,验证读写分离 实现读写分离 安装mycat 配置mycat 启动mycat 测试读写分离 验证是否同步 关闭B备mysql的同步,验证读写分离 数据库性能优化普遍采用集群方式,oracle集群软硬件投入昂贵,今天花了一天时间搭建基于mysql的集群环境. 主要思路 简单说,实现mysql主备复制-->利用mycat实现负载均衡. 比较了常用的读写分离方式,

mysql+myca搭建稳定高可用集群,负载均衡,主备复制,读写分离

数据库性能优化普遍采用集群方式,oracle集群软硬件投入昂贵,今天花了一天时间搭建基于mysql的集群环境. 主要思路 简单说,实现mysql主备复制-->利用mycat实现负载均衡. 比较了常用的读写分离方式,推荐mycat,社区活跃,性能稳定. 测试环境 MYSQL版本:Server version: 5.5.53,到官网可以下载WINDWOS安装包. 注意:确保mysql版本为5.5以后,以前版本主备同步配置方式不同. linux实现思路类似,修改my.cnf即可. A主mysql.19

基于 ZooKeeper 搭建 Hadoop 高可用集群

一.高可用简介 二.集群规划 三.前置条件 四.集群配置 五.启动集群 六.查看集群 七.集群的二次启动 一.高可用简介 Hadoop 高可用 (High Availability) 分为 HDFS 高可用和 YARN 高可用,两者的实现基本类似,但 HDFS NameNode 对数据存储及其一致性的要求比 YARN ResourceManger 高得多,所以它的实现也更加复杂,故下面先进行讲解: 1.1 高可用整体架构 HDFS 高可用架构如下: 图片引用自:https://www.edure