Node环境下的负载均衡

环境:Koa nginx

1、概念

负载均衡(Load Balance,简称LB)是一种服务器或网络设备的集群技术。负载均衡将特定的业务(网络服务、网络流量等)分担给多个服务器或网络设备,从而提高了业务处理能力,保证了业务的高可用性。

2、简单实现

步骤1:Koa框架中开启两个http server,监听两个端口

步骤2:配置nginx:

pstream tomcatserver1 {
    server 127.0.0.1:3000 weight=3;
    server 127.0.0.1:3001;
    }   

server {
        listen       80;
        location / {
            proxy_pass   http://tomcatserver1;
        }
     }

通过以上配置,便可以实现,在访问localhost这个网站时,由于配置了proxy_pass地址,所有请求都会先通过nginx反向代理服务器,在服务器将请求转发给目的主机时,读取upstream为 tomcatsever1的地址,读取分发策略,3000端口权重为3,所以nginx会将大部分请求发送给3000端口;较少部分给3001来实现有条件的负载均衡。

原文地址:https://www.cnblogs.com/KDSER/p/9110032.html

时间: 2024-08-03 00:10:04

Node环境下的负载均衡的相关文章

生产环境下的负载均衡配置

一.简介 最近新上了一个营销项目(和微信结合),后台用的是Tomcat.开始上线的时候因为人数不多感觉没太多问题,随着正式环境的发布,开人有人反映服务器页面无法打开,连入tomcat查看时发现连接数已满且CPU也用到了极限,初始的架构如下图所示,其使用1台tomcat和一台数据库服务器. 该业务系统主要用于微信营销,顾客在微信上下单购买(抢)对应的商品,抢购成功后该商品(券)会自动生成条形码保存在该用户的注册信息中.用户凭券到实体店完成支付和取货操作.因为涉及券核销的问题(支付完成后即时核销),

RHEL7下Nginx负载均衡配置(四)

RHEL7下Nginx负载均衡配置 前面两节讲过安装和配置文件了,这里写出配置文件,大家根据内容修改配置文件就可以了. http { upstream   myserver{ server 192.168.1.21:80 weight=2 max_fails=3 fail_timeout=20s; server 192.168.1.22:80 weight=3 max_fails=3 fail_timeout=20s; server 192.168.1.23:80 weight=4 max_fa

Node.js(window)基础(2)——node环境下的模块,模块间调用

参考:http://www.liaoxuefeng.com/wiki/001434446689867b27157e896e74d51a89c25cc8b43bdb3000/001434502419592fd80bbb0613a42118ccab9435af408fd000 1.node环境下的模块(module)概念:一个name.js文件就是一个模块,name是模块名称,模块中的函数方法称之为变量. 2.模块变量的调用:A.js中输出变量module.exports=函数名称; B.js引入模

Elasticsearch 顶尖高手(9)—图解2个node环境下replica shard是如何分配的

1.图解2个node环境下replica shard是如何分配的 replica shard分配 primary ---> replica同步 读请求:primary/replica 原文地址:https://www.cnblogs.com/Mr-WangYue/p/11519760.html

es 2个node环境下replica shard是如何分配的

1.图解2个node环境下replica shard是如何分配的 (1)replica shard分配:3个primary shard,3个replica shard,1 node(2)primary ---> replica同步(3)读请求:primary/replica 原文地址:https://www.cnblogs.com/siye1989/p/11559250.html

分布式环境中的负载均衡策略

在分布式系统中相同的服务常常会部署很多台,每一台被称为一个服务节点(实例).通过一些负载均衡策略将服务请求均匀地分布到各个节点,以实现整个系统支撑海量请求的需求.本文描述一些简单的负载均衡策略. Round-robin 简单地轮询.记录一个选择位置,每次请求来时调整该位置到下一个节点: curId = ++curId % nodeCnt 随机选择 随机地在所有节点中选择: id = random(nodeCnt); 本机优先 访问后台服务的访问者可能本身是一个整合服务,或者是一个proxy,如果

Nginx + Tomcat Windows下的负载均衡配置

一.为什么需要对Tomcat服务器做负载均衡?    Tomcat服务器作为一个Web服务器,其并发数在300-500之间,如果超过500的并发数会出现Tomcat不能响应新的请求的情况,严重影响网站的运行.同时如果访问量非常大的情况下,Tomcat的线程数会不断增加.因此会占据大量内存,严重时出现内存溢出的现象,这时需要重启Tomcat以释放内存,阻断了网站的运行.    所以对Tomcat做负载均衡便很有必要.目前可以和Tomcat做负载均衡的主流服务器是Apache,但是Nginx由于功能

linux(ubuntu12.04)下搭建负载均衡和tomcat集群

上一篇博客我们搭建了nginx+tomcat的服务器配置,可是实现静态和动态分离,但是只有一个tomcat. 所以,接下来在我们的机器上搭建多个tomcat,首先我们先复制一份以前的tomcat(我的tomcat是在/usr/local/下),执行命令 cp /usr/local/tomcat1 /usr/local/tomcat2 应为要两个不同的tomcat使用不同的环境变量,所以我们需要修改/etc/profile的文件配置信息 sudo gedit /etc/profile 然后修改成这

19个心得,明明白白说Linux下的负载均衡

一.目前网站架构一般分成负载均衡层.web层和数据库层,我其实一般还会多加一层,即文件服务器层,因为现在随着网站的PV越来越多,文件服务器的压力也越来越大;不过随着moosefs.DRDB+Heartbeat的日趋成熟,这问题也不大了.网站最前端的负载均衡层称之为Director,它起的是分摊请求的作用,最常见的就是轮询. 二.F5是通过硬件的方式来实现负载均衡,它较多应用于CDN系统,用于squid反向加速集群的负载均衡,是专业的硬件负载均衡设备,尤其适用于每秒新建连接数和并发连接数要求高的场