LAMT基于mod_jk方式的负载均衡集群

一、系统环境

1、apache服务器

系统环境:CentOS release 6.5 (Final)

ip地址:192.168.1.203

2、tomcat1服务器

系统环境:CentOS release 6.5 (Final)

外网ip:192.168.1.201

jdk版本:java version "1.7.0_25"

tomcat版本:Apache Tomcat/7.0.68

3、tomcat2服务器

系统环境:CentOS release 6.5 (Final)

外网ip:192.168.1.202

jdk版本:java version "1.7.0_25"

tomcat版本:Apache Tomcat/7.0.68

二、tomcat1和tomcat2服务器安装jdk和tomcat

1、jdk安装

# tar zxvf server-jre-7u25-linux-x64.tar.gz -C /usr/local

# mv /usr/local/jdk1.7.0_25 /usr/local/jdk1.7

# vim /etc/profile.d/java.sh 加入如下内容:

export JAVA_HOME=/usr/local/jdk1.7

export JRE_HOME=/usr/local/jdk1.7/jre

export CLASSPATH=.:$JAVA_HOME/lib:/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

重新加载配置文件

# source /etc/profile.d/java.sh

检查jdk环境安装是否正确:

# java -version

java version "1.7.0_25"

Java(TM) SE Runtime Environment (build 1.7.0_25-b15)

Java HotSpot(TM) 64-Bit Server VM (build 23.25-b01, mixed mode)

2、安装tomcat

# tar zxvf apache-tomcat-7.0.68.tar.gz -C /usr/local/

# mv /usr/local/apache-tomcat-7.0.68 /usr/local/tomcat

tomcat应用程序“部署”

部署是指webapp及其所依赖类库等装载进tomcat实例上,以便接受用户请求,部署方式有:

静态部署:在tomcat启动之前进行的webapp部署;

动态部署:在打断tomcat运行的前提下,通过tomcat manager或其他的命令行工具进行的部署

ajp(apache jserv protocal):二进制协议,使用httpd反向代理用户请求至tomcat时,在httpd和tomcat之间使用;如果使用nginx反代那只能是用http协议。

编辑tomcat启动脚本,设置开机自启动:

#!/bin/sh

# Tomcat init script for Linux.

# chkconfig: 2345 96 14

JAVA_HOME=/usr/local/jdk1.7

CATALINA_HOME=/usr/local/tomcat

export JAVA_HOME CATALINA_HOME

case $1 in

start)

exec $CATALINA_HOME/bin/catalina.sh start ;;

stop)

exec $CATALINA_HOME/bin/catalina.sh stop ;;

restart)

$CATALINA_HOME/bin/catalina.sh stop

sleep 2

exec $CATALINA_HOME/bin/catalina.sh start ;;

*)

echo "Usage:`basename $0` {start|stop|restart}"

exit

;;

esac

# chkconfig --add tomcat

# chkconfig --level 2345 tomcat on

三、apache服务器

apache2.2版本后已经自带mod_proxy,同时也支持mod_jk模式,但需要重新编译该模块

查看是否有apxs

# rpm -ql httpd-devel | grep apxs

如果没有安装httpd-devel

mod下载地址:http://tomcat.apache.org/download-connectors.cgi

下载该文件:tomcat-connectors-1.2.41-src.tar

# tar zxvf tomcat-connectors-1.2.41-src.tar.gz

# cd /usr/local/src/tomcat-connectors-1.2.41-src/native/

# ./configure --with-apxs=/usr/sbin/apxs

# make && make install

查看/usr/lib64/httpd/modules/目录下是否有mod_jk模块

# ls /usr/lib64/httpd/modules/

四、编辑配置文件

1、编辑apache的配置文件

# vim /etc/httpd/conf.d/mod_jk.conf加入如下内容

LoadModule  jk_module  modules/mod_jk.so

JkWorkersFile  /etc/httpd/conf.d/workers.properties

JkLogFile  logs/mod_jk.log

JkLogLevel  notice

JkMount  /*  lbcA

#JkMount  /status/  statA

# vim /etc/httpd/conf.d/workers.properties

worker.list=lbcA,TomcatA,TomcatB

worker.TomcatA.type=ajp13

worker.TomcatA.host=192.168.1.201

worker.TomcatA.port=8009

worker.TomcatA.lbfactor=1

worker.TomcatB.type=ajp13

worker.TomcatB.host=192.168.1.202

worker.TomcatB.port=8009

worker.TomcatB.lbfactor=1

worker.lbcA.type=lb

worker.lbcA.sticky_session=0

worker.lbcA.balance_workers=TomcatA,TomcatB

2、编辑tomcat的server.xml配置文件

# vim /usr/local/tomcat/conf/server.xml

<Engine name="Catalina" defaultHost="localhost" jvmRoute="TomcatA">

<Engine name="Catalina" defaultHost="localhost" jvmRoute="TomcatB">

重启后搭建成功。

时间: 2024-09-29 20:46:47

LAMT基于mod_jk方式的负载均衡集群的相关文章

LVS基于DR模型实现负载均衡集群实验

实验拓扑: 实验规划: Director: eth0   DIP: 192.168.1.40 eth0:0 VIP: 192.168.1.41 RS1: eth0  RIP1: 192.168.1.20 lo:0  VIP: 192.168.1.41 RS2: eth0  RIP2: 192.168.1.21 lo:0  VIP: 192.168.1.41 实验步骤: 在各RS上部署web服务 yum install httpd -y echo "server is working."

LVS搭建负载均衡集群

1.集群的概念: 服务器集群就是将很多服务器集中起来一起进行同一种服务,在客户端看来就像是只有一个服务器 2.集群的分类: 高可用集群(HA) 主要用于高可用解决方案的实现,节点间以主备形式,实现容灾:在大型故障的情况下实现快速恢复,快速提供服务 工作方式: 主从方式:主机工作,备机监控 互为主从:两服务器同时在线,一台服务器故障可切换到另一台上.有效的利用服务器资源,但当服务器故障时候,将可能导致服务器负载过大 多台服务器主从:大部分服务器在线使用,小部分监控:若有部分服务器故障,可切换到指定

apache以mod_jk方式实现tomcat的负载均衡集群

目录 1.环境准备 2.mod_jk配置 3.测试 4.总结 1.环境准备 准备三台主机,一台提供httpd环境,另两台提供tomcat环境. 主机规划: 主机名:httpd           IP地址:192.168.0.200提供httpd服务 主机名:TomcatA    IP地址:192.168.0.201提供tomcat服务 主机名:TomcatB    IP地址:192.168.0.202提供tomcat服务 jdk与tomcat的安装请参照博文:http://zhaochj.bl

基于lvs-nat方式实现负载均衡

实验环境:     OS : CentOS 6.6      ipvsadm: ipvsadm-1.26-4.el6.x86_64     LVS Server:              eth0: 172.16.66.10             eth1: 192.168.100.3     RS1:             eth1: 192.168.66.11             gateway: 192.168.100.3     RS2:             eth1: 1

企业实战-实现基于LVS负载均衡集群的电商网站架构

实现LVS-DR工作模式: 环境准备:一台centos系统做DR.两台实现过基于LNMP的电子商务网站 机器名称 IP配置 服务角色 备注 lvs-server VIP:172.17.252.110 DIP:172.17.250.223 负载均衡器 开启路由功能 (VIP桥接) rs01 RIP:172.17.251.245 后端服务器 网关指向DIP(桥接) rs02 RIP:172.17.252.87 后端服务器 网关指向DIP(桥接) 实验步骤: 一.安装: 1.yum install i

LB(Load balance)负载均衡集群--{LVS-[NAT+DR]单实例实验+LVS+keeplived实验} 菜鸟入门级

LB(Load balance)负载均衡集群 LVS-[NAT+DR]单实例实验 LVS+keeplived实验 LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统. 逻辑可分为: 1调度层 (Director):它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个IP地址(我们可称之为虚拟IP地址)上的. 2[服务器池(server pool)/集群层(Real server)]:是一组真正执行客

nginx+keepalived的高可用负载均衡集群构建

实验架构图: 实验环境 Nginx和Keepalived原理介绍 参考博客:http://467754239.blog.51cto.com/4878013/1541421 1.nginx Nginx进程基于于Master+Slave(worker)多进程模型,自身具有非常稳定的子进程管理功能.在Master进程分配模式下,Master进程永远不进行业务处理,只是进行任务分发, 从而达到Master进程的存活高可靠性,Slave(worker)进程所有的业务信号都 由主进程发出,Slave(wor

LVS+Keepalived 实现高可用负载均衡集群

简介: 随着网站业务量的增长,网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如 F5 ,Array又太贵,你们又是创业型互联公司如何有效节约成本,节省不必要的浪费?同时还需要实现商业硬件一样的高性能高可用的功能?有什么好的负载均衡可伸张可扩展的方案吗?有!我们利用LVS+Keepalivd基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器.  一.LVS+Keepalived  介绍 1.  LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服

keepalived+nginx实现高可用and负载均衡集群

keepalived+nginx实现高可用and负载均衡集群 前言 因生产环境需要,现需要搭建一个前端为nginx的HA双向互备.后端为nginx代理的loadbalance负载均衡集群.nginx进程基于于Master+Slave(worker)多进程模型,自身具有非常稳定的子进程管理功能.在Master进程分配模式下,Master进程永远不进行业务处理,只是进行任务分发,从而达到Master进程的存活高可靠性,Slave(worker)进程所有的业务信号都 由主进程发出,Slave(work