数据中心网络架构

传统数据中心网络架构

传统数据中新网络架构通常是3层结构,(园区网一般也是3层结构)Cisco称之为:分级的互联网络模型,包含三层:

Core 核心层 : 提供高速转发,为多个汇聚层提供连接性
Aggregation 汇聚层 :汇聚连接接入交换机,同时提供其他服务(FW、SLB、等)
Access 接入层 :物理连接服务器,一般放在机柜顶端,也称ToR交换机

一个三层架构图如下:

汇聚是网络的分界点,汇聚交换机以下是L2网络,以上是L3网络,每组汇聚交换机是一个pod,根据业务分区分模块。pod内是一个或者多个VLAN网络,一个POD对应一个广播域。

这种架构部署简单,(vlan+xstp)技术成熟。

VLAN 、Xstp

使用vlan、xstp原因:

1、BUM(广播,未知单播,组播)
vlan技术把一个大的物理二层域划分成多个小的逻辑二层域,这逻辑的二层域被称为vlan,同一个vlan内可以二层通信,不通vlan之间隔离,这样广播的范围被局限在一个vlan内,不会扩散到整个物理二层域
vlan还有简化管理,提高安全性等。。

2、环路及环路形成的广播风暴

如果是单设备单链路组成的3层架构,是不存在环路以及环路带来的广播,但是这种网络可靠性比较差,因为没有任何的备份设备和备份链路,一旦某个设备或者链路发生故障,故障点下的所有主机就无法连上网络。

为了提高网络的可靠性,通常采用冗余设备和冗余链路(如上图),这样就不可避免形成环路,二层网络处于同一个广播域下,广播报文在环路中反复持续传送,无线循环下就会形成广播风暴,瞬间就会造成端口阻塞设备瘫痪。

防止环路出现,又要保证网络的可靠性,就只能讲冗余设备和冗余链路变成备份设备和备份链路,冗余设备和链路在正常情况下被阻塞掉,不参与数据报文的转发,只有当前转发的设备、端口、链路出现故障导致网络不通的时候,冗余设备和链路才会被打开,使得网络恢复正常,实现这些自动控制的协议被称为破环协议,最常用就是 STP (生成树协议)有RSTP、MSTP 统称 XSTP协议。

服务器虚拟化

虚拟化发展改变了数据中心网络架构的需求,其中技术--虚拟机动态迁移,虚拟机迁移要求虚机迁移前后的IP和MAC地址不变,这就需要虚机迁移前后的网络处于同一个二层域内部,甚至跨越不同地域、不同机房之间的迁移,使得数据中心二层网络的范围越来越大,出现了大二层网络这一新领域专题。

传统网络架构的二层大不起来

一般传统网络架构分区分模块的业务特点,区域对应VLAN划分,跨pod迁移肯定的换IP地址,这就不符合虚机动态迁移业务不中断:

vlan问题

VLAN的核心思想之一,就是通过划分VLAN来缩小二层域的范围和规模,来控制广播风暴的规模。
而对于大二层网络的需求而言,又要求把所有服务器都纳入同一个二层域,那如果把所有服务器都纳入到同一个VLAN当中,如果没有其他隔离手段,那不就相当于又把广播域扩得大大的?这和划分VLAN的初衷是背道而驰的。

公有云的兴起和IaaS模式的普及,“多租户”环境成为了云网络必备的基础能力。而传统二层网络中,VLAN最多支持的租户数量为4K,已经跟不上业务的飞速发展。

xstp问题

环路技术收敛慢,xSTP需要阻塞掉冗余设备和链路,降低了网络资源的带宽利用率,二层的组网规模受到极大的限制

实现大二层

传统二层技术无法实现真正意义上大二层网络,所以就要另外想办法,然后技术大牛们各显神通,想出了很多解决方案:

1、虚拟交换机技术

既然二层网络的核心是环路问题,而环路问题是随着冗余设备和链路产生的,那么把多台设备、多条链路合并成一台、一条就可以消除环路。那就是网络设备虚拟化技术。
所谓网络设备虚拟化技术,就是将相互冗余的两台或多台物理网络设备组合在一起,虚拟化成一台逻辑网络设备,在整个网络中只呈现为一个节点。
网络设备虚拟化再结合链路聚合技术,就能够将原来的多设备多链路的结构变成逻辑上的单设备单链路的架构,杜绝了环路的出现,因此不再受破环协议的限制,从而实现大二层网络。

网络设备虚拟化的主要技术大致可以分为三类:框式设备的堆叠技术、盒式设备的堆叠技术、框盒/盒盒之间的混堆技术。有华为的CSS、iStack、SVF,CISCO的VSS、FEX,H3C的IRF等。

网络设备虚拟化方案也有一定的缺点:

1)这些协议都是厂家私有的,因此只能使用同一厂家的设备来组网。

2)受限于堆叠系统本身的规模限制,目前最大规模的堆叠/集群大概可以支持接入1~2万主机,对于超大型的数据中心来说,有时候就显得力不从心了。但是对于一般的数据中心来说,还是显得游刃有余的

东西向L3流量,不论是不是在一个接入层交换机下,都需要走到具有L3功能的核心交换机,如果东西流量大的话,浪费宝贵核心交换资源,多层转发也增加了网络传输延时

其次共享的L2广播域带来的BUM(Broadcast·,Unknown Unicast,Multicast)风暴随着网络规模的增加而明显增加,最终将影响正常的网络流量。

2、隧道技术

隧道技术解决的也是二层网络的环路问题,但是着眼点不是杜绝或者阻塞环路,而是在有物理环路的情况下,怎样避免逻辑转发路径的环路问题。

核心思想把三层网络的路由转发方式引入到二层网络中,通过在二层报文前插入额外的帧头,并且采用路由计算方式控制整网数据的转发,不仅可以在冗余链路下防止广播风暴,而且可以做ECMP。这样可以将二层网络的规模扩展到整张网络,而不会受核心交换机数量的限制。当然这需要交换机改变传统的基于MAC的二层转发行为,而采用新的协议机制来进行二层报文的转发。

新的协议包括TRILL、FabricPath、SPB等。

TRILL协议在原始以太帧外封装一个TRILL帧头,再封装一个新的外层以太帧来实现对原始以太帧的透明传输,TRILL交换机可通过TRILL帧头里的Nickname标识来进行转发,而Nickname就像路由一样,可通过IS-IS路由协议进行收集、同步和更新

TRILL和SPB这些技术是CT厂商主推的大二层网络技术方案。

3、Overlay网络

Overlay网络是在现有的网络(Underlay网络)基础上构建的一个虚拟网络。所谓的现有网络,就是之前的交换机所在的网络,只要是IP网络就行。而新构建的Overlay网络,用来作为服务器通讯的网络。Overlay网络是一个在L3之上的L2网络。也就是说,只要L3网络能覆盖的地方,那Overlay的L2网络也能覆盖。

通过用隧道封装的方式,将源主机发出的原始二层报文封装后在现有网络中进行透明传输,到达目的地之后再解封装得到原始报文,转发给目标主机,从而实现主机之间的二层通信。
通过封装和解封装,相当于一个大二层网络叠加在现有的基础网络之上,所以称为Overlay,也叫NVo3。

Overlay方案的核心就是通过点到多点的隧道封装协议,完全忽略中间网络的结构和细节,把整个中间网络虚拟成一台“巨大无比的二层交换机”, 每一台主机都是直接连在这台“巨大交换机”的一个端口上。而基础网络之内如何转发都是这台“巨大交换机”内部的事情,主机完全无需关心。

Overly技术不依赖于承载网络,可以充分利用现有的基础网络来实现大二层网络,并且对于支持SDN和多租户方面有优势,是当前大二层网络最热门的技术,可以实现整个数据中心的大二层网络,甚至跨数据中心的大二层组网,但是Overly技术中由Overly网络和Underlay承载网络两个控制层面,管理维护和故障定位就相对复杂的多,运维工作也相对较大。

vxlan配合Spine/Leaf架构:

Spine/Leaf网络扩大接入和汇聚层。一个主机可以通过叶支交换机(leaf)和另一个叶支交换机上的主机进行通信,而且是独立的通道。这种网络可以大大提高网络的效率,特别是高性能计算集群或高频流量通信设备

东西流量无须经过核心

原文地址:https://blog.51cto.com/11533525/2438361

时间: 2024-10-08 03:47:11

数据中心网络架构的相关文章

[转]数据中心网络虚拟化 主流平台产品介绍

http://www.sdnlab.com/12076.html SDNLAB 为了对数据中心网络虚拟化有个初步的认识,本文将对当前比较主流的几款商业平台进行介绍,包括VMware公司的网络虚拟化技术,IBM公司的Dove及开源的OpenDove平台, NEC公司的virtual-network-platform和VTN平台,以及Cisco公司的Nexus虚拟化平台. 1.Vmware公司的网络虚拟化技术 VMware在虚拟化领域的领导地位使得我们必须首先介绍一下他们的网络虚拟化技术NSX.然而

[转载] Google数据中心网络技术漫谈

原文: http://www.sdnlab.com/12700.html?from=timeline&isappinstalled=0#10006-weixin-1-52626-6b3bffd01fdde4900130bc5a2751b6d1&sukey=fc78a68049a14bb247c537e229e9301ea4dca80236df4f4e775535c08f0a24420a9ac4d726c99dad63a9f6e4c88271ed 真羡慕 google 强大的网络基础设施啊,

Overlay对数据中心网络的改进

编者按:Overlay网络方案就是通过在现有网络上叠加一个软件定义的逻辑网络,最大程度的保留原有网络,通过定义其上的逻辑网络,实现业务逻辑,从而解决原有数据中心的网络问题,极大的节省传统用户投资.本文是<Overlay网络与物理网络的关系>的前传,帮助你了解一些关于overlay的基础概念. 云心网络设备随Overlay解决方案会发生什么变化?我们将在本期和下期文章里,力图回答这些问计算大潮将数据中心的网络建设推至聚光灯下,各种解决方案和各种技术标准不断涌现.以VMware为代表的软件厂商提出

2017下一代数据中心网络研究报告zz

http://dy.163.com/v2/article/detail/CDG9CD7G05179LAH.html 2月2日,SDxCentral发布了2017下一代数据中心研究报告(2017 Next Gen Data Center Networking Report).这份报告系统介绍了下一代数据中心网络的发展趋势.关键功能.典型案例.行业标准以及热门产品. 下一代数据中心演进的四大驱动力 1.业务竞争驱动:企业提升自身竞争力,对敏捷性.差异化和成本节约提出了新要求 Increased Co

UCloud可支撑单可用区320,000服务器的数据中心网络系统设计

2018年10月份,UCloud数据中心基础网络完成了V4新架构的落地,自此,新建的数据中心(下简称DC)全面升级到25G/100G网络,极大提升了DC容量和DC间互联的性能.V4架构下的单可用区可提供320,000个服务器接入端口,是此前V3架构的4倍.并且支持无损网络特性,提供可用区资源的水平扩展和滚动升级能力.上线以来,新架构有力保障了UCloud福建GPU可用区开放.北京二可用区B/C/D扩容等需求. 对比云产品通过软件的灵活性来创造丰富的用户价值,公有云物理网络更注重规划的前瞻性与设计

[转]数据中心网络虚拟化 隧道技术

http://www.sdnlab.com/12077.html SDNLAB 如何实现不同租户和应用间的地址空间和数据流量的隔离是实现数据中心网络虚拟化首先需要解决的几个问题之一.所谓地址空间的隔离是指不同租户和应用之间的网络(ip)地址之间不会产生相互干扰.换句话说,两个租户完全可以使用相同的网络地址.所谓数据流量的隔离是指任何一个租户和应用都不会感知或捕获到其他虚拟网络内部的流量.为了实现上述目的,我们可以在物理网络上面为租户构建各自的覆盖(overlay)网络,而隧道封装技术则是实现覆盖

数据中心网络

数据中心网络是云计算的核心基础设施 数据中心的拓扑设计 代表方案:Fat-Tree Fat-Tree采用3层拓扑结构进行交换机级联,接入交换机与汇聚交换机被划分为不同的集群,集群中每台接入交换机都与每台汇聚交换机相连,每台汇聚交换机与部分核心交换机相连. 典型的Fat-Tree采用1G商用交换机. 数据中心网络传输协议 当前的数据中心网络仍采用广泛TCP传输数据,在特定情况下TCP性能会急剧下降,典型的TCP Incast. 数据中心网络链路资源比互联网丰富得多,传统的单路径传输协议不能充分地利

浅谈互联网企业数据中心网络设计

主要想解析下目前互联网公司数中心做为电子商务的基础承载面临的一些问题和挑战,以及目前我司在用网络设计供大家参考和指导,欢迎各位大大批评指正. 1.数据中心网络设计思考:互联网企业最大的特点在于公网.内网像两根平行线,中间的设备需要强大的横向扩展能力,所以采用的相应的VDC或vrf特性,将核心端口或端口组划至相应的VDC或VRF下 主要考虑端口密度.背板带宽.交换容量.特性.HA 无阻塞线速转发设计 高扩展性 端口密度 高转发缓存 高可用性 设计思路: 使用CSS/VSS/IRF技术将物理两台设备

数据中心网络虚拟化-隧道技术

如何实现不同租户和应用间的地址空间和数据流量的隔离是实现数据中心网络虚拟化首先需要解决的几个问题之一.所谓地址空间的隔离是指不同租户和应用 之间的网络(ip)地址之间不会产生相互干扰.换句话说,两个租户完全可以使用相同的网络地址.所谓数据流量的隔离是指任何一个租户和应用都不会感知或捕 获到其他虚拟网络内部的流量.为了实现上述目的,我们可以在物理网络上面为租户构建各自的覆盖(overlay)网络,而隧道封装技术则是实现覆盖网络的 关键.本节我们将针对目前较为流行的构建覆盖网络的隧道封装技术展开讨论