apache简单负载

Apache负载均衡

一般来说,负载均衡就是将客户端的请求分流给后端的各个真实服务器,达到负载均衡的目的。还有一种方式是用两台服务器,一台作为主服务器(Master),另一台作为热备份(Hot Standby),请求全部分给主服务器,在主服务器当机时,立即切换到备份服务器,以提高高可用。

必须有此模块:

LoadModuleproxy_module modules/mod_proxy.so

LoadModuleproxy_balancer_module modules/mod_proxy_balancer.so

1.普通负载:

ProxyRequestsoff

<Proxybalancer://server3.example.com>

BalancerMember http://192.168.88.128:80

BalancerMember http://192.168.88.129:80

</Proxy>

ProxyPass   /test balancer://server3.example.com/

#这里访问server3.example.com/test可以访问到,之所以这样加上test,是为了不与下面访问/balancer冲突,不然访问/balancer也被分配到realserver上面

#以下是访问的状态web统计,生产环境不加为好

<Location/balancer-manager>

SetHandler  balancer-manager

order Deny,Allow

Allow from all

</Location>

2.权重负载:

ProxyRequestsoff

<Proxybalancer://server3.example.com>

BalancerMember http://192.168.88.128:80loadfactor=8

BalancerMember http://192.168.88.129:80loadfactor=1

</Proxy>

3.其他负载算法:

ProxyRequestsoff

<Proxybalancer://server3.example.com>

BalancerMember http://192.168.88.128:80loadfactor=8

BalancerMember http://192.168.88.129:80loadfactor=1

</Proxy>

ProxyPass   /test balancer://server3.example.com/  lbmethod=bytraffic

lbmethod可能的取值有: 
lbmethod=byrequests 按照请求次数均衡(默认) 
lbmethod=bytraffic 按照流量均衡 
lbmethod=bybusyness 按照繁忙程度均衡(总是分配给活跃请求数最少的服务器)

4.热备

热备份的实现很简单,只需添加 status=+H 属性,就可以把某台服务器指定为备份服务器,访问一直都在192.168.88.128,只有它挂了,才会到129上。

<Proxybalancer://server3.example.com>

BalancerMember http://192.168.88.128:80loadfactor=8

BalancerMember http://192.168.88.129:80loadfactor=1  status=+H

</Proxy>

时间: 2024-11-07 10:06:13

apache简单负载的相关文章

基于Apache+Tomcat负载均衡的两种实现方法

Apache+Tomcat实现负载均衡的两种实现方法 如果我们将工作在不同平台的apache能够实现彼此间的高效通信,因此它需要一种底层机制来实现--叫做apr Apr的主要目的就是为了其能够让apache工作在不同的平台上,但在linux上安装apache的时候通常都是默认安装的 [[email protected] ~]#rpm -qi aprName                 :apr                                        Relocation

JMeter进行Apache Kafka负载测试

1.卡夫卡负载测试 在这个Apache Kafka教程中,我们将了解如何使用Apache JMeter,如何在Apache Kafka上执行Kafka负载测试.此外,这个Kafka负载测试教程教我们如何配置生产者和消费者,这意味着使用JMeter 开发Apache Kafka Consumer和Kafka Producer.最后,我们将看到在Jmeter中构建Kafka负载测试场景.然而,在Kafka负载测试之前,让我们学习Kafka的简要介绍,以便更好地理解其他工作. 使用JMeter进行Ap

Apache+Tomcat负载均衡问题集锦

之前在windows 环境下搭建了下apache+tomcat负载均衡(不会的可以参考之前的文档,文档对于linux和windows都适用),一帆风顺,没有出现任何问题,今天尝试着在linux下搭建了下,其中遇到几个问题,在这里给大家分享下. linux环境,三个redhat6.5 x86_64,其中192.168.1.2安装apache,192.168.1.3和192.168.1.4安装tomcat,这里不再介绍配置,如果有不会的,可以参考前边的文章. 问题一: SESSIONID随着页面刷新

apache + tomcat 负载均衡模式下 getLocalAddr() 为null的解决办法

在apache + tomcat 负载均衡模式下,通过request.getLocalAddr()无法获取服务器端的ip地址,返回值为null的问题,查找了下,百度里没有有价值的回答,到官方网站上查找了下,说是: The AJP protocol only passes the web server host name and port. It does not pass the IP address. Therefore, getLocalName() will return whatever

再谈Apache ActiveMQ 负载均衡

前面文章<Apache ActiveMQ 负载均衡 >在最后有提到一个场景,就是当AMQ的节点数大于2个的时候(HA + LB),且配置了消息回流的情况下的一些问题. HA + LB的基本结构如下图: 问题即发生在当生产者将消息投递到Master节点后(AMQ SERVER),消费者与A节点建立连接(Broker),根据AMQ的"预先消费"策略预先消费了一定数量的消息,即A节点消费了Master节点的一部分消息,A节点在将消息转发至消费者Consumer. 消费者在消费过程

tomcat结合nginx或apache实现负载均衡

基于Nginx为web代理服务器配置 前端Nginx配置: yum -y install nginx-1.4.7-1.el6.ngx.x86_64.rpm vim /etc/nginx/nginx.conf 添加一下内容 upstream tomcat { 定义一个名为tomcat的upstream server 172.16.254.151:80; server 172.16.254.144:8080; } 编辑/etc/nginx/conf.d/default.conf配置文件 启动ngin

apache tomcat负载均衡配置-未完成

集群技术是目前非常流行的提高系统服务能力与高可靠性( HA- High Availability )的手段,通过把多个独立的服务器组成一个集群可以实现失效无缝转移.也就是说当有某一台集群中的服务器当机后,其上的用户状态数据可以无缝迁移到集群中 的其他服务器上.这样,正在使用应用的客户可以完全感觉不到影响,大大提供了系统的可靠性. 集群有很多种类和层次,例如:操作系统集群(如 Linux . Solaris 等),数据库集群(如 DB2 . Oracle 等),应用服务器集群(如 GlassFis

Apache Httpd负载均衡Tomcat并实现Session Sticky和Session Cluster 大纲

Apache Httpd负载均衡Tomcat并实现Session Sticky和Session Cluster 大纲 前言 实验拓扑 实验步骤 安装配置tomcat 安装配置Apache Httpd并测试 实现session sticky 实现Session Cluster 总结 前言 上篇文章我们介绍如何构建一个LANMT平台并搭建一个jspxcms, 这次我们介绍使用apache httpd负载均衡Tomcat并实现Session Sticky和Session Cluster 实验拓扑 实验

Apache配置负载均衡-实例

公司两台服务器都安装了tomcat,配置apache作为负载均衡,当一台服务器出现故障时还能保证业务正常运行. Server1:192.168.1.100 Server2:192.168.1.200 1.查询是否已经安装了apache rpm -qa | grep httpd 2.使用yum安装apache,负载配置是一样的. yum -y install httpd* 3.启动apache,设置为开机自启动. systemctl start httpd systemctl enable htt