多链路及服务器负载均衡原理与设备构建方案

随着互联网的飞速发展,越来越多的商务活动通过互联网完成,网络性能却越来越不能满足日益增多互联网需求。随着因特网用户的急剧增多,用户越来越感受到应答时间延迟和带宽的不足。为了解决这些问题,用户为优化网络环境投入了大量的资金,但结果并未达到预期的效果。用户迫切需一套改善网络系统4S-Stability(安定性)、Scalability(扩展性)、Speed(高速性)、Security(安全性)的最佳解决方案。

PIOLINK负载均衡解决方案有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高,主要实现功能要求如下:

l 确保优化内部服务器集群的访问流量,即通过智能算法均衡外部链路对内部服务器集群的访问流量。

l 实时监控内部服务器状态,确保用户访问帮智能的分摊到服务器集群中的每台设备。

l 架构同时提供安全防护、故障恢复和负载均衡的健壮网络。

l 保证优化所有的ISP链路,即通过智能负载均衡所有通过可用链路的流量。

l 使用”智能路由选择算法”来选择输出流量的最佳ISP,以解决南北互通问题。

l 确保多ISP链路同时应用与交叉备份,保证Internet连接的7×24小时畅通。

l 使用“全路径健康检查”来确保选择可以提供最稳定服务的ISP。

PIOLINK通过本解决方案提供了满足所需的服务器负载均衡应用需求的服务。此架构是建立在 PIOLINK先进的应用交换平台上的,因此可以提供最高级的性能、扩展性、健壮性和安全性。

存在的问题

随着互联网的高速增长以及信息技术的快速发展,用户的日常工作的正常开展也越来越多的依赖用户信息系统的高可靠运行,尤其是用户数据中心和广域网接入的高可用性,IT管理部门也越来越关注如何在最大节省IT成本的情况下维持网络的7×24小时工作,保证业务的连续性和用户的满意度,随着大量的商务活动及服务急速转移到互联网领域,很多用户的内部服务器和相关网络设备因通信流量不规则发生堵塞和负荷现象,造成业务和服务的暂时中断问题,并导致企业竞争力瞬间降低的情况。目前用户在链路带宽管理和优化的通信以及服务器的高可用性主要存在以下几个方面的问题:

1. 大部分用户原有网络架构中,一般采用单条链路接入,在该种网络结构之中,无论主机系统、网络系统的规划有多么完美, 完全的排除了应用瓶颈, 都还存在一个非常明显的单点故障问题,一旦网络接入部分出现中断就直接意味着所有应用中断。显然,单条链路无法保证它提供的互联网链路的持续可用性,从而可能导致用户互联网接入的中断,对于为使用者提供高可用性的系统而言,互联网接入的中断则意味着高额的损失;

2. 随着国内最大的网络接入提供商被拆分为北方联通和南方电信之后,两大运营商之间资源的互访受到了很大程度的影响。其出现的根本原因为南北网络的互通互联节点拥塞,造成用户丢包、延迟较大,从而导致用户访问互联网资源缓慢,甚至对于一些应用根本无法访问;

3. 随着用户网络的快速发展,服务器的数量也急剧增长,如何能将客户多台相同应用系统的服务器组成一个系统,并通过相应的技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力,极大的提升系统的响应速度,从而提高应用系统的整体响应能力;

4. 采用多条链路和多台服务器协同工作在提高网络使用效率和计算机系统的处理能力和计算强度的同时,如何在完成同样功能的多个广域网接入链路和网络服务器之间实现合理的业务量分配,使之不会出现一条链路或一台设备过忙、而其他的链路和设备却没有充分发挥处理能力的情况;

5. 随着业务的发展,服务对于用户来说就更加显得重要,利用Internet网络提供给用户的客户、合作伙伴等的即时性服务的应用将越来越多,如ERP/CRM及Video Conference,因此广域网链路和承载这些应用系统运行的服务器的重要性也就不言而喻,如何保证用户的服务对象可以达到7×24访问的不间断,一旦当某一条链路或者服务器发生故障的时候,如何能够快速的检测并将用户的所有流量导向至正常工作的链路和服务器,并向IT管理员告警,通知即刻进行链路和服务器的故障处理,解决网络的单点故障问题,提高应用系统的高可用性如何为服务对象提供快速的访问,也是用户IT管理部门所迫切需要解决的问题;

为了解决以上问题,负载均衡技术应运而生,负载均衡技术是建立在现有网络结构之上,提供一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性,当前很多用户一般采取网关设备(如:防火墙)的策略路由来实现链路流量的负载均衡和一些软件方式来实现服务器的集群方式的负载均衡。策略路由的解决方案网络利用效率低,存在如下问题:由于各个运营商之间存在互联互通的问题,没有实现根据网络就近性的路径判断;对流入的流量没有很好的解决根据网络的就近性来导向用户的访问请求。使外部的用户访问能最快的进入机构的对外服务;对流出的流量没有解决根据最快到达要目标资源的访问策略;对于链路的健康状况也不能实时监测,也解决不了链路容灾,也就是当某一条链路出现故障后,将其流量导向另外链路的策略软件解决方案缺点较多;软件的服务器负载均衡解决方案则存在如下问题:因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键;软件可扩展性并不是很好,受到操作系统的限制;由于操作系统本身的Bug,往往会引起安全问题。

系统设计的基本原则

l 实用、先进、安全、可扩展是本系统设计的基本原则

本建议书首先是满足现有和可预见未来几年内的应用要求;其次是考虑在投资增加很少的前提下,选择目前可以提供最先进技术手段的设备和系统方案;最后要考虑实现的安全系统面对应用要有长远发展的能力。

l 稳定性和可靠性

对于业务系统的底层传输平台的网络系统必须要保证其工作的可靠性和稳定性,保证常年的不间断运行,这样才能提供及时、准确、可靠的信息支持。

l 安全性

安全性是信息系统建设所必须优先解决的问题,否则可能产生无法预计的严重后果。计算机系统具有攻破一点就可使全系统暴露的特殊性,因此一个完备的安全系统需要从网络、主机、操作系统、应用软件直到底层硬件平台进行完整的安全设计,从而提供多层次、多角度的网络安全保障。

l 技术的先进性

技术上应达到相当的先进性,性能上应能适应现在日新月异发展的网络应用,必须保证一个具有广泛适应能力、对各种业务都具有最佳传输效能的网络平台,从而使上层的应用能够顺畅的运行。

l 很好的系统开放性和升级扩展能力

网络应具有优异的开放性和升级扩展能力,支持多协议、多接口和开放式的结构,易于对外互连,给信息系统今后的应用和发展留有充分的扩展余地。

l 易于维护、易于管理

网络的可维护性和可管理性是确保网络长期稳定运行的关键因素,易于维护易于管理的网络不仅能够节省用户的大量时间、精力和运行成本,还是以上所提到的各种网络可靠性、安全性、先进性、扩展性等特性得以充分的发挥的有力保证。

l 实用性

既考虑节省投资,又保证产品的先进性和可用性。在涉及到与旧有设备的互操作和业务平滑过渡等问题上,在实现最新的优秀网络特性的同时用户也可得到最大限度的投资保护。要充分利用现有网络资源及通信资源。

3.2.1 串行部署模式

3.2.1.1  解决方案拓扑图

根据客户的需求及网络情况,建议在网络的出口处部署PIOLINK PAS-K设备,下图为PIOLINK链路及服务器负载均衡设备PAS-K采用串行部署方式的拓扑结构。

解决方案描述

如上图所示,我们对整个网络的构建如下:

1、 PAS-K负载均衡产品安置在用户的广域网接入区域,Internet链路出口处,分别连接电信和联通两条广域网链路。PIOLINK公司的PAS-K采用具有自主专利技术的MPA(Multi-Proxy 架构),性能强大,而且可靠性高,同时结合PIOLINK PLOS专用操作系统,用户可根据自己的需求选择PAS-K的多种附加增值功能,扩展性强;

2、 在PAS-K上设置链路负载均衡功能,PAS-K将针对电信和联通这两条广域网链路做链路的负载均衡,从而确保这两条广域网链路进行了优化和被充分的利用。内部用户访问访问Internet的时候,可以通过在PAS-K上设置的链路选择算法,确保内部用户到达Internet的应用的访问始终选择链路状况最好,延时最小的一条链路,达到对外访问线路最佳化的目的。同时PAS-K能够平滑稳定的扩展网络,当用户以后广域网链路又有增加的时候,仅需要在PAS-K上启用相关端口,做好相应配置既可;

3、 在PAS-K上设置SLB服务器负载均衡功能,PAS-K将针对内部的服务器群做服务器的负载均衡。通过设置SLB功能,我们可以对外部访问内部的服务器流量进行流量均衡,将其分摊到对应服务器集群的主机上,从而使得应用交换保证最佳服务。根据客户的应用环境,PAS-K将根据最优算法将访问请求分配到最快的响应服务器,保证用户实时快速不间断的访问应用,同时PAS-K能够平滑稳定的扩展内部网络,以及增加服务器集群,当数据中心以后想增加服务器的时候,仅需要在PAS-K上简单添加服务器IP的操作就可以完成;

4、 在PAS-K上设置流入的负载均衡功能,对于用户的客户和合作伙伴等对用户内部应用(如:网站、邮件等)的入站访问,PAS-K可以通过智能DNS解析功能,自动选择最佳链路,这样当远程用户通过域名访问用户网站时,逐步通过远程用户的本地DNS服务器、根DNS服务器,最终由PAS-K来进行域名的解析。此时PAS-K就会通过判断算法,选择最优的线路,然后将域名解析成相应线路的IP地址,将外部用户导通过状态最佳的链路导向到内部站点中的资源。用以提高各地区用户的访问速度;

5、 在PAS-K设备上通过配置健康检查功能,自动侦测对外链路接入状态和服务器工作状态,通过智能型路由引擎为流量做最适当的路径安排。当任一条广域网链路中断或不稳定时,PAS-K会自动将流量导引至其他可用且稳定的外连线路,以确保整体对外连接永不中断。一旦发生问题的链路回复正常时,PAS-K也能自动侦测出来,并重新分配每条链路的流量负载,将整体对外链路的使用率做最有效率及最佳化的运用;而当PAS-K检测到某台服务器处于不可用时,将用户请求自动转到当前正常工作的服务器上,保证了用户访问的不间断性;

6、 在PAS-K上启用智能优化和加速功能,采用标准的协议对用户访问的HTTP流量进行智能的压缩,在给用户提供很高的通信质量的同时,还能够极大的节约网站互联网接入带宽消耗,最大化的提高网络用户访问服务器内容的速度;PAS-K系列产品能够在内存中以数据包的形式Cache住网站页面中所有可以被Cache住的内容。当用户访问请求发送到PAS-K时,如果Cache中的内容能够匹配用户的访问请求则直接由PAS-K来响应用户的访问,从而避免了对后台服务器的负载压力,同时提高用户的访问速度;而SSL卸载功能则能显著减轻服务器的负担,提高服务器的工作效率和可靠性;

7、 PAS-K提供了强大的带宽管理功能,通过其内置了QoS 功能,能够根据实际业务需求、服务种类、封包类型、流量来源以及目地(以 IP 与网络子网来定义)等参数决定带宽分配的政策。通过滤除非预期的网络流量,能大幅改善带宽的使用率,使您在接收重要资料时能拥有最好的传输品质,节约有限的广域网带宽资源;

8、 PAS-K设备支持网络安全防护、QOS带宽管理等附加功能,对内部的用户群组和服务器群组来说,PAS-K可以通过启用安全防御模块,成为外网区和内网区之间的又一个安全枢纽,从而更加安全的保护内网。

方案实现功能

通过PAS-K的SLB服务器负载均衡功能,PAS-K可对内部的服务器集群进行智能的服务器负载均衡,当客户端访问时,PAS-K会截获需要做负载均衡的访问流量,通过设定的负载均衡策略,流量会智能分配到后端的各个真实服务器上,从而能使得应用交换得到最佳服务保证。

通过PAS-K的强大的流量智能优化和加速功能,PAS-K可对客户端访问后端服务器群的流量采用压缩、缓存以及SSL卸载技术做进一步的优化处理,以节约用户带宽,降低网络延迟,同时减轻服务器的负担,最大化的提高网络用户访问服务器内容的速度。

通过PAS-K的安全防御模块和QOS带宽管理功能,不但可以为内网区再增加一道安全防护门,从而确保网络数据中心的安全,而且可以确保服务质量,保证关键应用的高性能,可以根据具体参数对流量类型进行区分,并确定如何恰当地处理流量类型,从而对内部的用户进行高效的管理。

串行部署模式(HA)

解决方案拓扑图

下图为PIOLINK负载均衡设备PAS-K采用串行(HA)部署方式的拓扑结构。

解决方案描述

如上图所示,我们对整个网络的构建如下:

1、 PAS-K负载均衡产品安置在用户的广域网接入区域,Internet链路出口处,分别连接电信和联通两条广域网链路。PIOLINK公司的PAS-K采用具有自主专利技术的MPA(Multi-Proxy 架构),性能强大,而且可靠性高,同时结合PIOLINK PLOS专用操作系统,用户可根据自己的需求选择PAS-K的多种附加增值功能,扩展性强;

2、 在PAS-K上设置链路负载均衡功能,PAS-K将针对电信和联通这两条广域网链路做链路的负载均衡,从而确保这两条广域网链路进行了优化和被充分的利用。内部用户访问访问Internet的时候,可以通过在PAS-K上设置的链路选择算法,确保内部用户到达Internet的应用的访问始终选择链路状况最好,延时最小的一条链路,达到对外访问线路最佳化的目的。同时PAS-K能够平滑稳定的扩展网络,当用户以后广域网链路又有增加的时候,仅需要在PAS-K上启用相关端口,做好相应配置既可;

3、 在PAS-K上设置SLB服务器负载均衡功能,PAS-K将针对内部的服务器群做服务器的负载均衡。通过设置SLB功能,我们可以对外部访问内部的服务器流量进行流量均衡,将其分摊到对应服务器集群的主机上,从而使得应用交换保证最佳服务。根据客户的应用环境,PAS-K将根据最优算法将访问请求分配到最快的响应服务器,保证用户实时快速不间断的访问应用,同时PAS-K能够平滑稳定的扩展内部网络,以及增加服务器集群,当数据中心以后想增加服务器的时候,仅需要在PAS-K上简单添加服务器IP的操作就可以完成;

4、 在PAS-K上设置流入的负载均衡功能,对于用户的客户和合作伙伴等对用户内部应用(如:网站、邮件等)的入站访问,PAS-K可以通过智能DNS解析功能,自动选择最佳链路,这样当远程用户通过域名访问用户网站时,逐步通过远程用户的本地DNS服务器、根DNS服务器,最终由PAS-K来进行域名的解析。此时PAS-K就会通过判断算法,选择最优的线路,然后将域名解析成相应线路的IP地址,将外部用户导通过状态最佳的链路导向到内部站点中的资源。用以提高各地区用户的访问速度;

5、 在PAS-K设备上通过配置健康检查功能,自动侦测对外链路接入状态和服务器工作状态,通过智能型路由引擎为流量做最适当的路径安排。当任一条广域网链路中断或不稳定时,PAS-K会自动将流量导引至其他可用且稳定的外连线路,以确保整体对外连接永不中断。一旦发生问题的链路回复正常时,PAS-K也能自动侦测出来,并重新分配每条链路的流量负载,将整体对外链路的使用率做最有效率及最佳化的运用;而当PAS-K检测到某台服务器处于不可用时,将用户请求自动转到当前正常工作的服务器上,保证了用户访问的不间断性;

6、 PIOLINK负载均衡设备支持HA双机热备。方案中的两台PAS-K我们设置为Active-Standby的冗余(也可以设成都是Active),平时一台处于Active工作状态,另一台处于standby的备份状态。备机会时时备份主设备上的所有会话和状态,这样如果主设备出现问题或故障,根据冗余协议的设置,备份PAS-K会及时接管主设备的所有会话,用户当前的应用不会受到影响,从而使得用户的关键业务不会造成中断,实现了高可用性;

7、 在PAS-K上启用智能优化和加速功能,采用标准的协议对用户访问的HTTP流量进行智能的压缩,在给用户提供很高的通信质量的同时,还能够极大的节约网站互联网接入带宽消耗,最大化的提高网络用户访问服务器内容的速度;PAS-K系列产品能够在内存中以数据包的形式Cache住网站页面中所有可以被Cache住的内容。当用户访问请求发送到PAS-K时,如果Cache中的内容能够匹配用户的访问请求则直接由PAS-K来响应用户的访问,从而避免了对后台服务器的负载压力,同时提高用户的访问速度;而SSL卸载功能则能显著减轻服务器的负担,提高服务器的工作效率和可靠性;

8、 PAS-K提供了强大的带宽管理功能,通过其内置了QoS 功能,能够根据实际业务需求、服务种类、封包类型、流量来源以及目地(以 IP 与网络子网来定义)等参数决定带宽分配的政策。通过滤除非预期的网络流量,能大幅改善带宽的使用率,使您在接收重要资料时能拥有最好的传输品质,节约有限的广域网带宽资源;

9、 PAS-K设备支持网络安全防护、QOS带宽管理等附加功能,对内部的用户群组和服务器群组来说,PAS-K可以通过启用安全防御模块,成为外网区和内网区之间的又一个安全枢纽,从而更加安全的保护内网。

方案实现功能

通过PAS-K的SLB服务器负载均衡功能,PAS-K可对内部的服务器集群进行智能的服务器负载均衡,当客户端访问时,PAS-K会截获需要做负载均衡的访问流量,通过设定的负载均衡策略,流量会智能分配到后端的各个真实服务器上,从而能使得应用交换得到最佳服务保证。

通过PAS-K的强大的流量智能优化和加速功能,PAS-K可对客户端访问后端服务器群的流量采用压缩、缓存以及SSL卸载技术做进一步的优化处理,以节约用户带宽,降低网络延迟,同时减轻服务器的负担,最大化的提高网络用户访问服务器内容的速度。

通过PAS-K的安全防御模块和QOS带宽管理功能,不但可以为内网区再增加一道安全防护门,从而确保网络数据中心的安全,而且可以确保服务质量,保证关键应用的高性能,可以根据具体参数对流量类型进行区分,并确定如何恰当地处理流量类型,从而对内部的用户进行高效的管理。

时间: 2024-08-07 01:07:46

多链路及服务器负载均衡原理与设备构建方案的相关文章

负载均衡原理与技术实现

负载均衡(Load Balance,简称LB)是一种服务器或网络设备的集群技术.负载均衡将特定的业务(网络服务.网络流量等)分担给多个服务器或网络设备,从而提高了业 务处理能力,保证了业务的高可用性.负载均衡基本概念有:实服务.实服务组.虚服务.调度算法.持续性等,其常用应用场景主要是服务器负载均衡,链路负载 均衡. 一 服务器负载均衡 服务器负载均衡根据LB设备处理到的报文层次,分为四层服务器负载均衡和七层负载均衡,四层处理到IP包的IP头,不解析报文四层以上载荷(L4 SLB):七层处理到报

使用LVS实现负载均衡原理及安装配置详解

转:http://www.cnblogs.com/liwei0526vip/p/6370103.html 使用LVS实现负载均衡原理及安装配置详解 负载均衡集群是 load balance 集群的简写,翻译成中文就是负载均衡集群.常用的负载均衡开源软件有nginx.lvs.haproxy,商业的硬件负载均衡设备F5.Netscale.这里主要是学习 LVS 并对其进行了详细的总结记录. 一.负载均衡LVS基本介绍 LB集群的架构和原理很简单,就是当用户的请求过来时,会直接分发到Director

负载均衡原理

双机热备:有流量经过的设备即为主设备,为流量经过的设备即为备份设备 防火墙基于会话状态的数据同步:批量备份.实时备份批量备份:先运行的防火墙会将已有的会话表项一次性同步到加入的设备实时备份:保证表项完全一致,防火墙在产生新表项或表项变化后会及时备份到另一台设备上 双机热备:只支持数据同步.不支持配置同步 链路负载均衡:策略路由策略路由配置不方便,不够灵活,无法适应动态网络结构变化,策略路由无法根据带宽进行报文分发链路负载均衡通过动态算法,能够在多链路中进行负载均衡,算法配置简单,且具有自适应能力

使用 LVS 实现负载均衡原理及安装配置详解

使用 LVS 实现负载均衡原理及安装配置详解 来源:肖邦linux 发布时间:2017-02-19 阅读次数:106 0 负载均衡集群是 load balance 集群的简写,翻译成中文就是负载均衡集群.常用的负载均衡开源软件有nginx.lvs.haproxy,商业的硬件负载均衡设备F5.Netscale.这里主要是学习 LVS 并对其进行了详细的总结记录. 一.负载均衡LVS基本介绍 LB集群的架构和原理很简单,就是当用户的请求过来时,会直接分发到Director Server上,然后它把用

[转]f5负载均衡原理

f5负载均衡原理 一. 负载均衡技术 负载均衡技术在现有网络结构之上提供了一种廉价.有效.透明的方法,来扩展网络设备和服务器的带宽.增加吞吐量.加强网络数据处理能力.提高网络的灵活性和可用性. 1. 负载均衡发生的流程图: 1. 客户发出服务请求到VIP 2.BIGIP接收到请求,将数据包中目的IP地址改为选中的后台服务器IP地址,然后将数据包发出到后台选定的服务器 3. 后台服务器收到后,将应答包按照其路由发回到BIGIP 4.BIGIP收到应答包后将其中的源地址改回成VIP的地址,发回客户端

服务器负载均衡基础概念

服务器负载均衡:按字面理解就是将网络流量负载负担.根据不同网络层次可分为二层负载.三层负载.四层负载.七层负载. 三层负载:三层负载最好理解,所以先讲三层负载.三层负载基于IP地址来分担的.对于了解NAT技术的人来说更好理解.一般拓扑如下: 负载设备(SLB)对外提供一个VIP(虚拟IP),客户端通过访问虚IP,SLB将客户端流量调调度服务器端.类似NAT中一对多效果.如客户端C1第一访问VIP调度到服务器A上,第二次访问就调度到服务器B上.我们称这种轮询调度为轮询调度算法,调度规则称为调度算法

PIOLINK服务器负载均衡解决方案设计

PIOLINK服务器负载均衡解决方案设计 系统设计的基本原则 l 实用.先进.安全.可扩展是本系统设计的基本原则 本建议书首先是满足现有和可预见未来几年内的应用要求:其次是考虑在投资增加很少的前提下,选择目前可以提供最先进技术手段的设备和系统方案:最后要考虑实现的安全系统面对应用要有长远发展的能力. l 稳定性和可靠性 对于业务系统的底层传输平台的网络系统必须要保证其工作的可靠性和稳定性,保证常年的不间断运行,这样才能提供及时.准确.可靠的信息支持. l 安全性 安全性是信息系统建设所必须优先解

LVS详解及基于LVS实现web服务器负载均衡

前言 LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能.高可用的服务器群集,从而以低成本实现最优的服务性能. 集群基础 集群简介 集群(Cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用

LAMP平台基于NFS实现web服务器负载均衡

前言 随着访问量的逐渐增大,一台web服务器可能已经无法满足需求,这就需要增加web服务器的数量了,于是问题就来了:如何保证两台服务器数据同步呢?本文将讲解如何基于NFS实现web服务器的负载均衡及数据同步. NFS服务介绍 NFS(Network File System)网络文件系统,允许一个系统通过网络共享目录和文件,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件.NFS本身没有提供数据传输的功能,必须借助于远程过程调用(RPC)协议来实现数据的传输. 配置文件 NFS