haproxy + keepalived 实现高可用负载均衡集群

1. 首先准备两台tomcat机器,作为集群的单点server。

第一台:

1)tomcat,需要Java的支持,所以同样要安装Java环境。

安装非常简单。

tar xf  jdk-7u65-linux-x64.tar.gz

mv jdk1.7.0_65 /usr/local/java

然后在环境变量中加入Java的运行路径

vim  /etc/profile

JAVA_HOME=/usr/local/java

export PATH=$PATH:$JAVA_HOME/bin

修改后,source /etc/profile, 使变量生效

我们可以测试一下  java-version

出现Java版本信息,信息会随着系统的版本不同,以下为centos 7

openjdk version "1.8.0_131" OpenJDK Runtime Environment (build 1.8.0_131-b12) OpenJDK 64-Bit Server VM (build 25.131-b12, mixed mode)

2)安装Tomcat

tar xfv  apache-tomcat-7.0.54.tar.gz

mv  apache-tomcat-7.0.54  /usr/local/tomcat

找到tomcat的启动文件 /usr/local/tomcat/bin/startup.sh

关闭文件 /usr/local/tomcat/bin/shutdown.sh

启动后可用 netstat -anpt|grep 8080是否为Java占用,正常。

tcp6       0      0 :::8080                 :::*                    LISTEN      1990/java

同时我也可以查看日志情况,tail  -f  /var/log/tomcat7/catalina.out     catalina.out  为日志文件

3)我们要搭建一个测试环境

cd /usr/local/tomcat7/conf找到server.xml 文件,修改前做备份,cp  server.xml  server.xml.bak

主要Host 同时对context项,进行修改,把 docBase改为要测试的页面的目录,可为相对目录,也可为绝对目录。

本例中我们用一个jsp编写的一个项目做实验,修改为SLSaleSystem,保存退出

将项目解压至tomcat的网页存放目录webapps 下。tar  xvf  SLSaleSystem.tar.gz  /usr/local/tomcat7/webapps/

重启服务

/usr/local/tomcat7/bin/shutdown.sh

/usr/local/tomcat7/bin/startup.sh

打开浏览器,输入tomcat的ip,测试一下,出现登录界面,tomcat搭建完成

第二台tomcat,配置同第一台一样

2.安装两台haproxy+keepalived服务器

1)安装haproxy

yum -y install haproxy

修改前做备份

cp  /etc/haproxy/haproxy.cfg /etc/haproxy/haproxy.cfg.bak

vim /etc/haproxy/haproxy.cfg

在最后添加

listen  web_tomcat 0.0.0.0:80                                  定义一个服务器组,监听所有端口的80
        #option httpchk GET /index.html
        balance roundrobin
        server  web_tomcat_1 172.16.1.2:80 check inter 2000 rise 2 fall 3 weight 1               加两台服务器
        server  web_tomcat_2 172.16.1.12:80 check inter 2000 rise 2 fall 3 weight 1

为了便于日志管理,将日志独立定义到haproxy.conf ,并放到/etc/rsyslog.d  下

先在    /etc/haproxy/haproxy.conf中加

log /dev/log local0 info
    log /dev/log local0 notice      定义这两类信息,要记录到日志文件中

再创建/etc/rsyslog.d/haproxy.conf 文件

if ($programname == ‘haproxy‘ and $syslogseverity-text ==‘info‘) then                           意思为如果程序名为haproxy并且日志验证文本为 info和notice分别记录到haproxy-info.log和haproxy-notice.log文件
  -/var/log/haproxy/haproxy-info.log
&~
if ($programname == ‘haproxy‘ and $syslogseverity-text ==‘notice‘) then
        -/var/log/haproxy/haproxy-notice.log
&~

重启日志服务/etc/init.d/rsyslog restart

创建这两个文件

touch haproxy-info.log

touch haproxy-notice.logfo.log

打开浏览器http://haproxy主机ip,能显示

2).安装keepalived

我们选择用yum -y install keepalived

添加为开机启动 chkconfig  keepalived on

修改配置文件

cd /etc/keepalived/

cp keepalived.conf   keepalived.conf.bak

vim keepalived.conf

vrrp_instance VI_1 {

#备用服务器上为 BACKUP

state BACKUP

#绑定vip的网卡为ens33

interface ens33

virtual_router_id 51

#备用服务器上为90

priority 90

advert_int 1

authentication {

auth_type PASS

  auth_pass 1111

}

}

virtual_ipaddress {

172.16.1.200

}

}

3)第二台配置同第一台,不同的是keepalived.conf 文件中从priority 为90

3,高可用测试

模拟停止 nginx1服务,用ip a 查看网卡信息,发现VIP已转移到nginx2上。

service nginx stop

ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000     link/ether 00:0c:29:a7:c0:25 brd ff:ff:ff:ff:ff:ff     inet 192.168.1.2/24 brd 192.168.1.255 scope global ens33        valid_lft forever preferred_lft forever     inet 172.16.1.200/32 scope global ens33        valid_lft forever preferred_lft forever     inet6 fe80::20c:29ff:fea7:c025/64 scope link        valid_lft forever preferred_lft forever

同时打开浏览器,查看,服务正常。

原文地址:https://www.cnblogs.com/mushou/p/9378898.html

时间: 2024-10-07 23:44:09

haproxy + keepalived 实现高可用负载均衡集群的相关文章

基于Haproxy+Keepalived构建高可用负载均衡集群

实验环境: 主机名 IP地址 VIP 192.168.200.254 Haproxy-1 192.168.200.101 Haproxy-2 192.168.200.102 Nginx1 192.168.200.103 Nginx2 192.168.200.104   1.在Nginx1/2上编译安装nginx服务1.1 首先安装Nginx1 [[email protected] ~]# yum -y install gcc gcc-c++ make pcre-devel zlib-devel

Nginx+Keepalived搭建高可用负载均衡集群

Nginx+Keepalived搭建高可用负载均衡集群   一. 环境说明 前端双Nginx+keepalived,nginx反向代理到后端的tomcat集群实现负载均衡,Keepalived实现集群高可用. 操作系统: Centos 6.6_X64 Nginx版本: nginx-1.9.5 Keepalived版本:keepalived-1.2.13 结构: Keepalived+nginx-MASTER:10.6.1.210         Keepalived+nginx-BACKUP:

nginx+keepalived的高可用负载均衡集群构建

实验架构图: 实验环境 Nginx和Keepalived原理介绍 参考博客:http://467754239.blog.51cto.com/4878013/1541421 1.nginx Nginx进程基于于Master+Slave(worker)多进程模型,自身具有非常稳定的子进程管理功能.在Master进程分配模式下,Master进程永远不进行业务处理,只是进行任务分发, 从而达到Master进程的存活高可靠性,Slave(worker)进程所有的业务信号都 由主进程发出,Slave(wor

LVS+Keepalived 实现高可用负载均衡集群

简介: 随着网站业务量的增长,网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如 F5 ,Array又太贵,你们又是创业型互联公司如何有效节约成本,节省不必要的浪费?同时还需要实现商业硬件一样的高性能高可用的功能?有什么好的负载均衡可伸张可扩展的方案吗?有!我们利用LVS+Keepalivd基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器.  一.LVS+Keepalived  介绍 1.  LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服

Keepalived + LVS 高可用负载均衡集群部署

Keepalived(高可用) 通过在两台主.备调度器上实现Keepalived高可用解决调度器单点失败问题 主.备调度器上配置LVS,正常情况下主调度器工作 主调度器异常时,Keepalived启用备用调度器,保证了调度器的高可用 调度器保证了后台服务的高可用 Keepalived机制把同一个IP一直分配给同一个Web服务器 IP地址分配: Web1:        192.168.10.20      ifcfg-lo:0   192.168.10.50 Web2:        192.1

ubuntu 14.04.3 LTS 版本 通过 nginx + keepalived 配置 高可用 负载均衡集群演示

系统版本:ubuntu 14.04.3 LTS 服务器准备: lb01-> ifconfig 显示结果: 192.168.91.136 作用:安装keepalived 及 nginx lb02-> ifconfig 显示结果: 192.168.91.135 作用:安装keepalived 及 nginx web01-> ifconfig 显示结果: 192.168.91.134 作用:安装nginx 负责展示 index.html页面 web02-> ifconfig 显示结果:

LVS+Keepalived高可用负载均衡集群架构

实验环境: LVS和keepalived介绍: 1.keepalived的设计目标是构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器,管理服务器池,而不仅仅用来做双机热备. 使用keepalived构建LVS群集更加简便易用,主要优势体现在: 对LVS负载调度器实现热备切换,提高可用性: 对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入. 2.在基于LVS+Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,两台以上的节点服务器,

haproxy+keepalived实现高可用负载均衡web集群

haproxy+keepalived实现高可用负载均衡web集群 负载均衡集群的概念 负载均衡是设计分布式系统架构必须要考虑的因素之一,它指的是通过调度分发的方式尽可能将"请求"."访问"的压力负载平均分摊到集群中的各个节点,避免有些节点负载太高导致访问延迟,而有些节点负载很小导致资源浪费.这样,每个节点都可以承担一定的访问请求负载压力,并且可以实现访问请求在各节点之间的动态分配,以实现负载均衡,从而为企业提供更高性能,更加稳定的系统架构解决方案. 高可用集群的概念

Haproxy+Keepalived搭建Weblogic高可用负载均衡集群

配置环境说明:   KVM虚拟机配置 用途 数量 IP地址 机器名 虚拟IP地址 硬件 内存3G  系统盘20G cpu 4核 Haproxykeepalived 2台 192.168.1.10192.168.1.20 Haserver01Haserver02 192.168.30192.168.40 内存6G  系统盘20G cpu 4核 Weblogic 4台 192.168.1.100192.168.1.150 192.168.1.200 192.168.1.250 Clusters01C