nginx负载均衡简单实例

nginx分配服务器策略

1.轮询(默认)

每一个请求按时间顺序逐一分配到不同的祸端服务器,如果后端服务器 down 掉,能自动抵触

2.weight(权重)

weight代表权重,默认为1,权重越高被分配的客户端请求越多

3.ip hash

每个请求按访问 ip 的 hash 结果分配,这样每个方可固定访问一个后端服务器

4.fair (第三方)

按后端服务器的响应时间类分配请求,响应时间短的优先分配

一、做什么?

二、怎样做?

1.所需环境

虚拟机中需要安装 jdk+tomcat(两个)+nginx

2.配置nginx环境

进入 /usr/local/nginx/conf/nginx.conf

2.1.轮询策略

2.1.1.配置

upstream 表示是你要进行负载均衡的服务器列表

proxy_pass 是你规定的跳转的路径

2.1.2.测试

刷新一下

8080和8081服务器是平均分配的

2.2.权重策略

2.2.1配置

8081服务器呗访问的次数是8080服务器的两倍

2.3. ip hash

2.3.1配置

2.4.fair

2.4.1.配置

原文地址:https://www.cnblogs.com/BeenTogether/p/11617106.html

时间: 2024-10-13 01:38:40

nginx负载均衡简单实例的相关文章

nginx负载均衡简单配置

准备三台虚拟机来做这个实验: 192.168.232.132        web服务器 192.168.232.133        web服务器 192.168.232.134        负载均衡服务器 首先三台电脑预装nginx软件: 1.导入外部软件库 rpm -Uvh http://dl.iuscommunity.org/pub/ius/stable/Redhat/6/i386/epel-release-6-5.noarch.rpm rpm -Uvh http://dl.iusco

Nginx负载均衡配置实例

Nginx的负载均衡配置实例. 关于负载均衡的配置实例如下: http{    upstream server {      server 192.168.10.100:80 weight=3 max_fails=3 fail_timeout=25s;      server 192.168.10.101:80 weight=1 max_fails=3 fail_timeout=25s;      server 192.168.10.102:80 weight=4 max_fails=3 fai

Nginx负载均衡配置实例详解

负载均衡负载均衡是我们大流量网站要做的一个东西,下面我来给大家介绍在Nginx服务器上进行负载均衡配置方法,希望对有需要的同学有所帮助哦.先来简单了解一下什么是负载均衡,单从字面上的意思来理解就可以解释N台服务器平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况.那么负载均衡的前提就是要有多台服务器才能实现,也就是两台以上即可. 负载均衡的类别轮询            -应用程序轮流来响应请求(nginx默认采用)最少连接    -请求被分配到活动连接最少的服务器上ip-hash

Nginx负载均衡配置实例详解(转)

负载均衡是我们大流量网站要做的一个东西,下面我来给大家介绍在Nginx服务器上进行负载均衡配置方法,希望对有需要的同学有所帮助哦. 负载均衡 先来简单了解一下什么是负载均衡,单从字面上的意思来理解就可以解释N台服务器平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况.那么负载均衡的前提就是要有多台服务器才能实现,也就是两台以上即可. 测试环境由于没有服务器,所以本次测试直接host指定域名,然后在VMware里安装了三台CentOS. 测试域名  :a.com A服务器IP :19

Nginx负载均衡配置实例(转)

1.轮询 轮询即Round Robin,根据Nginx配置文件中的顺序,依次把客户端的Web请求分发到不同的后端服务器.配置的例子如下: http{ upstream sampleapp { server <<dns entry or IP Address(optional with port)>>; server <<another dns entry or IP Address(optional with port)>>; } .... server{

nginx 负载均衡简单配置

配置要求: 三台服务器 127.0.0.1       主负载(把访问请求分给主机池) 127.0.0.2       主机2 127.0.0.3       主机3 第一步: 配置127.0.0.1(主负载)主机 nginx.conf文件 将主机池添加于 nginx.conf文件中的http 中 upstream mysvr{ server 127.0.0.2 weight=1; server 127.0.0.3 weight=3;} 如图: 主机池参数简介 weight 为该主机权重(图中配

nginx负载均衡和tomcat热部署简单了解

简单说下几个名词 nginx 它是一个反向代理,实际上就是一台负责转发的代理服务器,貌似充当了真正服务器的功能,但实际上并不是,代理服务器只是充当了转发的作用,并且从真正的服务器那里取得返回的数据,这个就是nginx的工作内容 tomcat 开源的web服务器 oracle 数据库 redis 缓存系统 nginx负载均衡简介 如图1展示,客户端发起请求,通过nginx代理后,根据权重将请求平均转发到服务器 热部署简介 一般我们只有1个tomcat的时候,如果需要代码包,就需要把tomcat关闭

[转]Nginx+mysql+php-fpm负载均衡配置实例

转 : http://www.jbxue.com/article/7923.html 介绍一个nginx.mysql.php-fpm环境下配置负载均衡的例子,有需要的朋友,可以参考下. 系统环境如下:前端Nginx:192.168.93.137后端web1:192.168.0.11后端web2:192.168.0.12 1.前端nginx配置: 复制代码代码示例: http {      ……        client_max_body_size 300m;        client_bod

Nginx做NodeJS应用负载均衡配置实例

这篇文章主要介绍了Nginx做NodeJS应用负载均衡配置实例,本文直接给出配置实例,需要的朋友可以参考下. 负载均衡可以把用户的请求分摊到多个服务器上进行处理,从而实现了对海量用户的访问支持.负载均衡的架构如图所示: 对于复杂的Web应用来说,用Nginx做前端负载均衡是理所当然的事.下面,我们用Nginx做NodeJS应用的负载均衡.1.配置Nginx修改nginx.conf: upstream sample { server 127.0.0.1:3000; server 127.0.0.1