域名到站点的负载均衡技术一览(主要是探讨一台Nginx抵御大并发的解决方案)(转)

继上一篇文章Http://www.cnblogs.com/EasonJim/p/7807794.html中说到的,Nginx虽然很强大,但是面对大并发时,一台Nginx总是有限的。即使后端有多台Nginx组成的集群时,前端毕竟只有一台Nginx,资源往往有限。

下面将介绍应对这样的情况应该有的解决方案,其实原理就是集群,使用的是LVS。

我猜测和简单的理解(观点虽然是错的,但是好理解,如果要深入原理远没有这么简单):为什么LVS的集群能够抵御这么大的并发,一切都出在VIP上,首先依托LVS的负载均衡调度器,这个是在Linux内核级别的,估计是在网络七层中的第一层就转发了,然后就是链表处理,然后把请求转发到各个集群,再到Nginx。既然是内核级别的,那么资源肯定占用的非常少,只做个最基本的转发。

下面是详细的介绍:

一、问题域

Nginx、LVS、Keepalived、F5、DNS轮询,往往讨论的是接入层的这样几个问题:

1)可用性:任何一台机器挂了,服务受不受影响

2)扩展性:能否通过增加机器,扩充系统的性能

3)反向代理+负载均衡:请求是否均匀分摊到后端的操作单元执行

二、上面那些名词都是什么概念

1)Nginx:一个高性能的Web-Server和实施反向代理的软件

2)LVS:Linux Virtual Server,使用集群技术,实现在Linux操作系统层面的一个高性能、高可用、负载均衡服务器

3)Keepalived:一款用来检测服务状态存活性的软件,常用来做高可用

4)F5:一个高性能、高可用、负载均衡的硬件设备

5)DNS轮询:通过在DNS-Server上对一个域名设置多个IP解析,来扩充Web-Server性能及实施负载均衡的技术

三、接入层技术演进

【裸奔时代单机架构】

裸奔时代的架构图如上:

1)浏览器通过DNS-Server,域名解析到IP

2)浏览器通过IP访问Web-Server

缺点

1)非高可用,Web-Server挂了整个系统就挂了

2)扩展性差,当吞吐量达到Web-Server上限时,无法扩容

注:单机不涉及负载均衡的问题

【DNS轮询】

假设Tomcat的吞吐量是1000次每秒,当系统总吞吐量达到3000时,如何扩容是首先要解决的问题,DNS轮询是一个很容易想到的方案:

此时的架构图如上:

1)多部署几份Web-Server,1个Tomcat抗1000,部署3个Tomcat就能抗3000

2)在DNS-Server层面,域名每次解析到不同的IP

优点

1)零成本:在DNS-Server上多配几个IP即可,功能也不收费

2)部署简单:多部署几个Web-Server即可,原系统架构不需要做任何改造

3)负载均衡:变成了多机,但负载基本是均衡的

缺点

1)非高可用:DNS-Server只负责域名解析IP,这个IP对应的服务是否可用,DNS-Server是不保证的,假设有一个Web-Server挂了,部分服务会受到影响

2)扩容非实时:DNS解析有一个生效周期

3)暴露了太多的外网IP

【Nginx】

Tomcat的性能较差,但Nginx作为反向代理的性能就强多了,假设线上跑到1w,就比Tomcat高了10倍,可以利用这个特性来做扩容:

此时的架构图如上:

1)站点层与浏览器层之间加入了一个反向代理层,利用高性能的Nginx来做反向代理

2)Nginx将Http请求分发给后端多个Web-Server

优点

1)DNS-Server不需要动

2)负载均衡:通过Nginx来保证

3)只暴露一个外网IP,Nginx->Tomcat之间使用内网访问

4)扩容实时:Nginx内部可控,随时增加Web-Server随时实时扩容

5)能够保证站点层的可用性:任何一台Tomcat挂了,Nginx可以将流量迁移到其他Tomcat

缺点

1)时延增加+架构更复杂了:中间多加了一个反向代理层

2)反向代理层成了单点,非高可用

【高可用方案Keepalived】

为了解决高可用的问题,Keepalived出场了:

此时:

1)做两台Nginx组成一个集群,分别部署上Keepalived,设置成相同的虚IP,保证Nginx的高可用

2)当一台Nginx挂了,Keepalived能够探测到,并将流量自动迁移到另一台Nginx上,整个过程对调用方透明。

优点

1)解决了高可用的问题

缺点

1)资源利用率只有50%

2)Nginx仍然是接入单点,如果接入吞吐量超过的Nginx的性能上限怎么办,例如qps达到了50000呢?

【垂直扩容方案 LVS/F5】

Nginx毕竟是软件,性能比Tomcat好,但总有个上限,超出了上限,还是扛不住。

LVS就不一样了,它实施在操作系统层面;F5的性能又更好了,它实施在硬件层面;它们性能比Nginx好很多,例如每秒可以抗10w,这样可以利用他们来扩容,常见的架构图如下:

此时:

1)如果通过Nginx可以扩展多个Tomcat一样,可以通过LVS来扩展多个Nginx

2)通过Keepalived+VIP的方案可以保证可用性

多数的公司到这一步基本就能解决接入层高可用、扩展性、负载均衡的问题。

好吧,不管是使用LVS还是F5,这些都是scale up(垂直扩展)的方案,根本上,LVS/F5还是会有性能上限,假设每秒能处理10w的请求,一天也只能处理80亿的请求(10w秒吞吐量*8w秒),那万一系统的日PV超过80亿怎么办呢?

【水平扩容方案DNS轮询】

水平扩展,才是解决性能问题的根本方案,能够通过加机器扩充性能的方案才具备最好的扩展性。

facebook,google,baidu的PV是不是超过80亿呢,它们的域名只对应一个IP么,还是得通过DNS轮询来进行扩容

此时:

1)通过DNS轮询来线性扩展入口LVS层的性能

2)通过Keepalived来保证高可用

3)通过LVS来扩展多个Nginx

4)通过Nginx来做负载均衡,业务七层路由

四、总结

稍微做一个简要的总结:

1)接入层架构要考虑的问题域为:高可用、扩展性、反向代理+扩展均衡

2)Nginx、Keepalived、LVS、F5可以很好的解决高可用、扩展性、反向代理+扩展均衡的问题

3)水平扩展scale out是解决扩展性问题的根本方案,DNS轮询是不能完全被Nginx/LVS/F5所替代的

参考:

Https://www.cnblogs.com/wade-luffy/p/6406394.html(以上内容转自此篇文章)

时间: 2024-10-29 13:41:25

域名到站点的负载均衡技术一览(主要是探讨一台Nginx抵御大并发的解决方案)(转)的相关文章

LVS集群中的IP负载均衡技术

章文嵩 ([email protected]) 转自LVS官方参考资料 2002 年 4 月 本文在分析服务器集群实现虚拟网络服务的相关技术上,详细描述了LVS集群中实现的三种IP负载均衡技术(VS/NAT.VS/TUN和VS/DR)的工作原理,以及它们的优缺点. 1.前言在 前面文章中,讲述了可伸缩网络服务的几种结构,它们都需要一个前端的负载调度器(或者多个进行主从备份).我们先分析实现虚拟网络服务的主要技术,指出 IP负载均衡技术是在负载调度器的实现技术中效率最高的.在已有的IP负载均衡技术

负载均衡技术在CDN中发挥着重要作用

转载地址:http://www.qicaispace.com/gonggao/server/page01/info07.asp CDN是一个经策略性部署的整体系统,能够帮助用户解决分布式存储.负载均衡.网络请求的重定向和内容管理等问题. 其目的是通过在现有的Internet中增加一层新的网络架构,将网站的内容发布到最接近用户的网络“边缘”,使用户可以就近取得所需的内容,解决 Internet网络拥塞状况,提高用户访问网站的响应速度.从技术上全面解决由于网络带宽小.用户访问量大.网点分布不均而产生

linux 负载均衡技术之 LVS

一. LVS简介LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.org.现在LVS已经是 Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须要重新编译内核以支持LVS功能模块,但是从Linux2.4内核以后,已经完全内置了LVS的各个功能模块,无需给内核打任何补丁,可以直接使用LVS提供的各种功能. 使用LVS技术要达到的目标是:通过LVS

浅谈负载均衡技术

Tomcat处理静态页面的并发是每秒2000左右,处理动态页面的并发是每秒800左右. Internet的快速增长使多媒体网络服务器,特别是Web服务器,面对的访问者数量快速增加,网络服务器需要具备提供大量并发访问服务的能力.例如Yahoo每天会收到数百万次的访问请求,因此对于提供大负载Web服务的服务器来讲,CPU.I/O处理能力很快会成为瓶颈.  简单的提高硬件性能并不能真正解决这个问题,因为单台服务器的性能总是有限的. 一般来讲,一台PC服务器所能提供的并发访问处理能力大约为1000个,更

负载均衡技术分析与测试报告

负载均衡技术分析与测试报告                 目录 负载均衡测试报告... 1 负载均衡技术概述:... 2 服务器负载均衡... 2 链路负载均衡... 3 Outbound链路负载均衡... 3 Inbound链路负载均衡... 4 常见负载均衡调度算法... 5 测试目的... 6 测试环境搭建... 7 1:原始网络环境... 7 2:测试网络环境... 7 测试设备介绍... 8 1:产品介绍... 8 2:产品操作界面... 8 出现问题... 9 最终解决方案...

负载均衡技术全攻略

转自:http://www.blogjava.net/carter0618/archive/2007/10/16/153131.html 大量的负载均衡相关文档链接,在这里收集起来,以备后用 负载均衡技术 2005-08-20 shenghuafen 集群的负载均衡技术 2005-04-04 liumyong 使用负载均衡技术建设高负载的网络站点2004-08-22 johnathan 基于linux的负载均衡技术 2005-12-02 yhb72 web集群服务的负载均衡方案选择与实现 200

亿级PV请求的三种负载均衡技术(转)

http://www.360doc.com/content/17/1126/23/50145453_707419125.shtml 目录 DNS轮询 LVS负载均衡 DR模式 NAT模式 Full-NAT模式 Tunnel模式 Nginx负载均衡 LVS 与 Nginx 的区别 参考资料 在互联网+不断渗透到生活中的今天,各种各样的网络服务存在在我们身边,他们的访问流量也是大得惊人.一个大型网站(百万PV以上)想要正常访问,单单靠一台服务器是不可能提供稳定服务的.这时候就需要用负载均衡技术将海量

架构设计:负载均衡层设计方案之负载均衡技术总结篇

前言 1.概述 通过前面文章的介绍,并不能覆盖负载均衡层的所有技术,但是可以作为一个引子,告诉各位读者一个学习和使用负载均衡技术的思路.虽然后面我们将转向"业务层"和"业务通信"层的介绍,但是对负载均衡层的介绍也不会停止.在后续的时间我们将穿插进行负载均衡层的新文章的发布,包括Nginx技术的再介绍.HaProxy.LVS新的使用场景等等. 这篇文章我们对前面的知识点进行总结,并有意进行一些扩展,以便于各位读者找到新的学习思路. 2.负载均衡层的核心思想 2-1.一

几种负载均衡技术的实现

[前言]        负载均衡技术对于中大型网站的性能提高有着很大的优势,最近在学习<大型网站技术的架构>,其中对于负载均衡技术有一些介绍,将学习的经验总结一下,分享下.多交流. [协议层]http重定向协议实现负载均衡      原理:根据用户的http请求计算出一个真实的web服务器地址,并将该web服务器地址写入http重定向响应中返回给浏览器,由浏览器重新进行访问. 如图: 优点:比较简单 缺点:浏览器需要零次请求服务器才能完成一次访问,性能较差. http重定向服务器自身的处理能力