负载均衡的基础技术种类

 

通过负载均衡实现应用服务器伸缩性

1、 HTTP重定向负载均衡
利用HTTP重定向协议实现负载均衡。如下图所示:

HTTP重定向负载均衡原理

HTTP重定向服务器是一台普通的应用服务器,其唯一的功能就是根据用户的HTTP请求计算一台真实的Web服务器地址,并将该Web服务器地址写入HTTP重定向响应中(响应状态码302)返回给用户浏览器。

缺点:

1、浏览器需要两次请求服务器才能完成一次访问,性能较差

2、重定向服务器自身的处理能力有可能成为瓶颈,整个集群的伸缩性规模有限

3、使用HTTP302响应码重定向,有可能使搜索引擎判断为SEO作弊,降低搜索排名

2、DNS域名解析负载均衡

这是利用DNS处理域名解析请求的同时进行负载均衡处理的一种方案,如下图所示:

DNS域名解析负载均衡原理

在DNS服务器中配置多个A记录,如:

www.mysite.com IN A 114.100.80.1

www.mysite.com IN A 114.100.80.2

www.mysite.com IN A 114.100.80.3

每次域名解析请求都会根据负载均衡算法计算一个不同的IP地址返回,这样A记录中配置的多个服务器就构成一个集群,并可以实现负载均衡。上图中的浏览器请求解析域名www.mysite.com,DNS根据A记录和负载均衡算法计算得到一个IP地址114.100.80.3,并返回给浏览器;浏览器根据该IP地址,访问真是物理服务器114.100.80.3。

优点:将负载均衡的工作转交给DNS,省掉了网站管理维护负载均衡服务器的麻烦,同时许多DNS还支持基于地理位置的域名解析,即会将域名解析成距离用户地理位置最近的一个服务器地址,这样可加快用户访问速度,改善性能。

缺点:目前的DNS是多级解析,每一级DNS都可能缓存A记录,当下线某台服务器后,即使修改了DNS的A记录,要使其生效也需要较长的时间,这段时间,DNS依然会将域名解析到已经下线的服务器,导致用户访问失败;而且DNS负载均衡的控制权在域名服务商那里,网站无法对其做更多改善和更强大的管理

大型网站总是部分使用DNS域名解析,利用域名解析作为第一级负载均衡手段,即域名解析得到的一组服务器并不是实际提供Web服务的物理服务器,而是同样提供负载均衡的内部服务器,这组内部负载均衡服务器再进行负载均衡,将请求分发到真实的Web服务器上。

3、反向代理负载均衡(由于反向代理服务器转发请求在HTTP协议层面,因此也叫应用层负载均衡)

利用反向代理服务器进行负载均衡,如下图:

反向代理负载均衡原理

前面我们提到利用反向代理缓存资源,以改善网站的性能。实际上,在部署位置上,反向代理服务器处于Web服务器前面(这样才可能缓存Web响应,加速访问),这个位置正好是负载均衡服务器的位置,所以大多数反向代理服务器同时提供负载均衡的功能,管理一组Web服务器,将请求根据负载均衡算法转发到不同的Web服务器上。Web服务器处理完成的响应也需要通过反向代理服务器返回给用户。由于Web服务器不直接对外提供访问,因此Web服务器不需要使用外部 IP地址,而反向代理服务器则需要配置双网卡和内部外部两套IP地址。

上图中,浏览器访问清酒的地址是反省代理服务器的地址114.100.80.10,反向代理服务器收到请求后,根据负载均衡算法计算得到一台真实物理服务器的地址10.0.0.3,并将请求转发给服务器。10.0.0.3处理完请求后将响应返回给反向代理服务器,反向代理服务器再将该响应返回给用户。

优点:和反向代理服务器功能集成在一起,部署简单

缺点:反向代理服务器是所有请求和响应的中转站,其性能可能会成为瓶颈

4、IP负载均衡

在网络层通过修改请求目标地址进行负载均衡,如下图所示:

IP负载均衡原理

真实物理Web服务器响应数据包返回给 负载均衡服务器方案:

1:负载均衡服务器在修改目的的IP地址的同时修改源地址,将数据源地址设为自身IP,即源地址转换(SNAT),这样Web服务器的响应会再回到负载均衡服务器

2:将负载均衡服务器同时作为物理服务器集群的网关服务器,这样所有响应数据都会到达负载均衡服务器

IP负载均衡在内核进程完成数据分发,较反向代理 负载均衡(在应用程序中分发数据)有更好的处理能力。但是由于所有请求响应都需要经过负载均衡服务器,集群的最大响应数据吞吐量不得不受制于负载均衡服务器 网卡带宽。对于提供下载服务或者视频服务等需要传输大量 数据的网站而言,难以满足需求。

5、数据链路层负载均衡

顾名思义,数据链路层负载均衡是指在通信协议的数据 链路层修改mac地址进行负载均衡,如下图所示:

6、负载均衡算法

负载均衡服务器的实现可以分为两个部分:

1:根据负载均衡算法和Web服务器列表计算得到集群中一台Web服务器的地址

2:将请求数据发送到该地址对应的Web服务器

前面描述了如何将请求数据发送到Web服务器,二具体的负载均衡算法通常有以下几种

轮询(Round Robin,RR)

所有请求被一次分发到每台应用服务器上,即每台服务器需要处理的请求数目都相同,适合于素有服务器硬件都相同的场景。

加权轮询(Weighted Round Robin,WRR)

根据应用服务器硬件性能的 情况,在 轮询的基础上,按照配置的权重将请求分发到每个服务器,高性能的服务器能分配更多请求。

随机(Random)

请求被随机分配到各个应用服务器,在 许多场合下,这种方案都很简单实用,因为好的随机数本身就很均衡。即使应用服务器硬件配置不同,也可以使用加权随机算法。

最少连接(Least Connections)

记录每个应用服务器正在处理额连接数(请求数),将新到的请求分发到最少连接的服务器上,应该说,这是最符合负载均衡定义的算法。同样,最少连接算法也可以实现加权最少连接。

源地址散列(Source hashing)

根据请求来源的IP地址进行Hash计算,得到应用服务器,这样来自同一个IP地址的请求总在同一个服务器上处理,该请求的上下文信息可以存储在这台服务器上,在一个会话周期内重复使用,从而实现会话黏滞。

时间: 2024-11-03 20:48:11

负载均衡的基础技术种类的相关文章

Nginx+Tomcat+Keepalived+Memcache 负载均衡动静分离技术

一.概述 Nginx 作负载均衡器的优点许多,简单概括为: ①实现了可弹性化的架构,在压力增大的时候可以临时添加Tomcat服务器添加到这个架构里面去; ②upstream具有负载均衡能力,可以自动判断下面的机器,并且自动踢出不能正常提供服务的机器: Keepalived 可实现 Nginx负载均衡器双机互备,任意一台机器发生故障,对方都能够将虚拟IP接管过去. Memcache可以实现Tomcat服务器的Sission共享整个拓补如下: 注意: 1.由于服务器有限,IP相同的为同一台机.只是端

【转】《从入门到精通云服务器》第七讲—负载均衡和CDN技术

在IDC知识中,我们常常会遇上负载均衡与CDN的概念而不知所云.第一讲[什么是云计算], 我们提到过负载均衡,仅给大家留下了印象.这次我们将深入浅出的讲讲到底什么是负载均衡与CDN技术.---互联网数据中心(Internet Data Center)简称IDC 负载均衡(load balance) BOSS一次给了小明好多项任务,小明发现怎么安排时间也做不完,于是乎他盯上了在旁边偷偷看电影的小强,小强突然觉得背后有一股凉气,一回头小明一脸坏笑看着他,“这几个任务交给你,晚上请你吃饭,要不然…嘿嘿

负载均衡研究 基础

1.概念: 负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助.通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求.均衡负载能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题. 负载平衡主要应用于Web网站,高流量的文件下载网站,NNTP(Network News Transfer Protocol)服务和DNS服务.负

[转]简述负载均衡和CDN技术

http://blog.jobbole.com/86066/ 曾经见到知乎上有人问“为什么像facebook这类的网站需要上千个工程师维护?”,下面的回答多种多样,但总结起来就是:一个高性能的web系统需要从无数个角度去考虑他,大到服务器的布局,小到软件中某个文件的实现,甚至于某个循环内的运算如果出现不严谨都可能导致全盘崩溃. 上面提到web性能优化需要多个角度去考虑,我们无法考虑到所有的优化细节,但可以从我们已知的层面去优化,我们就先从网络层面说起. 1.网络请求路径: ———————————

负载均衡原理与技术实现

负载均衡(Load Balance,简称LB)是一种服务器或网络设备的集群技术.负载均衡将特定的业务(网络服务.网络流量等)分担给多个服务器或网络设备,从而提高了业 务处理能力,保证了业务的高可用性.负载均衡基本概念有:实服务.实服务组.虚服务.调度算法.持续性等,其常用应用场景主要是服务器负载均衡,链路负载 均衡. 一 服务器负载均衡 服务器负载均衡根据LB设备处理到的报文层次,分为四层服务器负载均衡和七层负载均衡,四层处理到IP包的IP头,不解析报文四层以上载荷(L4 SLB):七层处理到报

简述负载均衡和CDN技术

链接地址:http://blog.jobbole.com/86066/ 曾经见到知乎上有人问“为什么像facebook这类的网站需要上千个工程师维护?”,下面的回答多种多样,但总结起来就是:一个高性能的web系 统需要从无数个角度去考虑他,大到服务器的布局,小到软件中某个文件的实现,甚至于某个循环内的运算如果出现不严谨都可能导致全盘崩溃. 上面提到web性能优化需要多个角度去考虑,我们无法考虑到所有的优化细节,但可以从我们已知的层面去优化,我们就先从网络层面说起. 1.网络请求路径: —————

LVS负载均衡群集基础(一)

LVS负载均衡群集(一) 1.      群集(或集群)的称呼来自于英文单词"Cluster",用在服务器的领域表示大量的服务器集合,以便与区分单个服务器. 2.      群集的类型: (1)      负载均衡群集(load balance cluster):提高系统的响应能力,尽可能的处理更多的访问请求等,获得高并发,高负载的整体性能.例如应用于:"DNS轮询"."反向代理"等. (2)      高可用群集(high availabili

LVS负载均衡集群技术学习笔记

一.ARP协议 1. Address Resolution Protocal地址解析协议,功能是根据主机IP地址来解析到主机的MAC地址. 2. ARP协议和DNS协议对比: a. DNS是在域名和IP之间进行解析,ARP是在IP和MAC之间解析. b. ARP协议不需要服务,DNS需要开启服务. c. ARP协议需要互联的主机处于同一个物理网段之内(即局域网环境)! 3. ARP协议工作过程(第一次通信) 4. 高可用服务器切换机器以及更换路由器的时候要注意刷新ARP缓存 5. IP切换时候A

三十九、负载均衡及扫尾技术知识

一.nginx实现负载均衡或者代理 1.  在前面我们已经说过,安装nginx许多核心模块已经安装,nginx的配置文件是以模块的形式组织的,不同的模块实现不同的功能,其中代理或者说负载是upstream_module模块实现的,所以我们首先要安装nginx,通过./configure文件时,我们可以看到在生成makefile的时候,默认是安装了upstream_modul.   [[email protected] nginx-1.6.2]# ./configure --help |grep