应用负载均衡(轮询&&一致性哈希)

今天看书看到了应用负载均衡的轮询与一致性哈希,其中说到,一致性哈希可以根据应用请求的URL或者URL参数将系统的请求转发到同一节点,而轮询是将请求均匀地转发到每个服务器。

1、轮询:

优点:到后端应用的请求更加均匀,使得每个服务器基本均衡
缺点:随着后端应用服务器的增加,缓存的命中率为下降,这种方式不会因为热点问题导致其中某一台
服务器负载过重

2、一致性哈希

优点:相同的请求会转发到同一台服务器,命中率不会因为增加服务器而下降
缺点:因为相同的请求会转发到同一服务器,可能会导致某台服务器负载过重,甚至是服务出现问题

3、小结

负载较低的情况下,推荐一致性哈希
热点请求降级,推荐轮询,如果请求数据有规律,则可考虑带权重的一致性哈希

应用负载均衡(轮询&&一致性哈希)

时间: 2024-11-07 11:23:46

应用负载均衡(轮询&&一致性哈希)的相关文章

nginx源码安装、文件模块的修改、访问加密(自定义签名证书)及负载均衡+轮询

主机环境 redhat6.5 实验环境 服务端 ip172.25.29.1    nginx    服务端 ip 172.25.29.2  apache    服务端 ip 172.25.29.3  apache    测试端 ip 172.25.254.29 安装包       nginx-1.10.1.tar.gz nginx用作反向代理 服务端1 1.  安装nginx 1.解压及简单配置 [[email protected] mnt]# yum install gcc -y      #

nginx之 nginx + tomcat + redis 负载均衡且session一致性

说明: 本文描述的是 nginx + tomcat + redis 实现应用负载均衡且满足session一致性,从安装到配置的全部过程,供大家学习!nginx 代理服务器ip: 10.219.24.26tomcat_1 应用服务器ip与端口: 10.219.24.21:8080 tomcat_2 应用服务器ip与端口: 10.219.24.21:8081redis 缓存服务器ip: 10.219.24.23 一. nginx-1.9.7 编译安装 下载地址: http://nginx.org/d

2016 -Nginx的负载均衡 - 一致性哈希 (Consistent Hash)

Nginx版本:1.9.1 算法介绍 当后端是缓存服务器时,经常使用一致性哈希算法来进行负载均衡. 使用一致性哈希的好处在于,增减集群的缓存服务器时,只有少量的缓存会失效,回源量较小. 在nginx+ats / haproxy+squid等CDN架构中,nginx/haproxy所使用的负载均衡算法便是一致性哈希. 我们举个例子来说明一致性哈希的好处. 假设后端集群包含三台缓存服务器,A.B.C. 请求r1.r2落在A上. 请求r3.r4落在B上. 请求r5.r6落在C上. 使用一致性哈希时,当

# IT明星不是梦 #分布式负载均衡算法之亲和性轮询

无论是在早期的负载均衡器中,还是当前微服务基于客户端的负载均衡中,都有一个最基础的轮询算法,即将请求平均分布给多台机器,今天聊聊在此基础上, kube proxy是如何实现亲和性轮询的核心数据结构. 了解亲和性策略实现,失败重试等机制 1. 基础筑基 1.1 Service与Endpoints Service和Endpoint是kubernetes中的概念,其中Service代表一个服务,后面通常会对应一堆pod,因为pod的ip并不是固定的,用Servicel来提供后端一组pod的统一访问入口

干货分享微服务spring-cloud(4.负载均衡ribbon与熔断器hystrix)

Ribbon是一个基于http和tcp的客户端负载均衡工具 Hystrix具备服务降级.服务熔断.线程和信号隔离.请求缓存.请求合并以及服务监控 为了方便消费者负载均衡效果,复制demo-springcloud-client1并重名为demo-springcloud-client2,修改配置文件和启动类,服务提供者1和2服务名均为spring.application.name=demo-springcloud-client 修改YhqContoller实现,为了方便负载均衡观察效果,demo-s

基于node开发的web应用,负载均衡的简单实践

集群(cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器. 负载均衡(Load Balance),其意思就是分摊到多个操作单元上进行执行 阿里云负载均衡 架构文档 负载均衡好处 节省成本,一个服务器性能再好也是有瓶颈的,而且性能越高的服务器成本也越大. 极大的提高了并发量和响应速度. 实践例子 学无止境网该web应用,由两个服务器一起提供的服务 实现负载均衡遇到的问题 nginx负载均衡策略

Linux学习10-CentOS搭建nginx负载均衡环境

前言 当自己的web网站访问的人越来越多,一台服务器无法满足现有的业务时,此时会想到多加几台服务器来实现负载均衡. 网站的访问量越来越大,服务器的服务模式也得进行相应的升级,怎样将同一个域名的访问分散到两台或更多的机器上呢?这就需要用nginx来配置负载均衡的环境了. 以多个tomcat服务为例,用nginx配置管理多个tomcat服务 什么是负载均衡 负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽.增加吞吐量.加强网络数据处理能力.提高网络的灵活性和可

一致性哈希实现负载均衡

一致性哈希实现负载均衡 1 为什么需要哈希算法 解决同一个用户访问服务器是,访问的是不同的服务器的问题 场景:集群造成的session没有同步 当一个用户访问服务器A的时候,该台服务器A会保存这台服务器的session,但是当下次再访问的时候,被负载均衡算法可能算到了不同的服务器B,服务器B中没有用户的session,会要求用户再次登录. 解决: 加入redis,将session存到redis中 Tomcat同步session 一致性哈希算法 2 什么是一致性哈希算法 服务器集群接收到一次请求调

关于负载均衡的一切:总结与思考

古人云,不患寡而患不均. 在计算机的世界,这就是大家耳熟能详的负载均衡(load balancing),所谓负载均衡,就是说如果一组计算机节点(或者一组进程)提供相同的(同质的)服务,那么对服务的请求就应该均匀的分摊到这些节点上.负载均衡的前提一定是“provide a single Internet service from multiple servers”, 这些提供服务的节点被称之为server farm.server pool或者backend servers. 这里的服务是广义的,可