数据中心核心网络技术一览

主机内二层转发(即服务器内虚机间转发)

基于本地软件交换机交换

VMWare 方案,通过服务器上软件交换机(如 Linux 网桥、OpenvSwitch)来实现。主要问题是对服务器性能有消耗。

802.1Qbh BPE(Bridging Port Extend)

已终止。Cisco 主导,数据层面为 PE(Port Extender)。

802.1BR

Cisco 主导,将交换放在外部交换机,用 tag 来区分 vm 流量。

Cisco VN-Tag

Cisco 私有技术,

802.1Qbg EVB(Edge Virtual Bridging)

数据层包括三种实现:

  • VEB(Virtual Ethernet Bridging):本地交换机(服务器内,软或者硬)作为完整功能交换机,流量正常交换,扩展性好
  • VEPA(Virtual Ethernet Port Aggregator):本地交换机端口分上行(接外部交换机)和下行(接虚机),将流量扔给外部交换机交换,VEPA
    负责处理往下行的多播/广播
  • Multi Channel:虚机通过虚通道直接连到外部交换机的虚拟接口上,本地不做任何交换处理 获得主流非 Cisco 厂家支持

跨核心网的二层交换

二层 Ethernet 网络的多路径技术,解决规模问题和效率问题。

  • SPB & PBB:软件计算路径。
  • TRILL:MACinMAC 封装,添加 TRILL 头(含有入、出口 NickName),核心根据 NickName 来转发。
  • Fabric Path/L2MP/E-TRILL:外层用私有的头封装后转发。

跨数据中心二层交换

光纤直连

基于 MPLS 的二层互联

VLL 和 VPLS。

基于 IP 网络的三层互联

一般考虑的点包括迁移、交换机表项压力、VLAN 数量限制等问题。基本思路就是利用隧道或者覆盖网进行穿透。

VLLoGRE、VPLSoGRE

用 GRE 隧道在 IP 网络上进行跨站点沟通。

L2TPv3

封装二层包在 IP 内,仅支持两站互通。

OTV

封装二层包在 IP 内。

VXLAN

最常见,由 Cisco 和 VMware 发起,目前 Brocade、Avaya、Arista 等均已支持。

  • 封装为 UDP 包转发。这里有个小问题:UDP 端口如果唯一将影响到中间如何多路径均衡,不唯一又无法解决 VXLAN 协议探测问题;我个人推荐用一组固定的 UDP 端口。
  • 24 位 VXLAN ID (VNI) 取代原先的 12 位 VLAN ID。
  • 隧道两端是 VTEP,负责进行封装(VLAN ID->VNI)和解封装(VNI -> VLAN ID)。
  • 控制平面上用封装的 ARP 包来进行定位,利用 IP 组播来询问和传播位置信息,所以相同 MAC 地址的虚机同时出现的租户数受组播数量限制。
  • VTEP 保存两个信息,一个是本地虚机(VLAN ID 或 MAC 地址等其它信息) 到 VNI 的双向映射,另一个是目标 MAC+VNI 到目标 VTEP IP 的映射。同时,VTEP 可以额外检查 VNI 和 MAC 的信息是否匹配。

NVGRE

基于 GRE 的通用封装。

STT

VMware 支持,底下用 TCP 转发。

GENEVE

通用封装,试图整合已有协议。

PTN

PTN 基于 MPLS-TP,最初面向二层互联,先已支持三层。标准化略成熟

IP RAN

增强型路由器,三层功能完备。

虚拟化

数据平面

主机处理的都是以太网包,封装后,在逻辑交换层(多利用 IP 路由)黑箱转发。目前多是一虚多。

控制平面

  • 一虚多是将同一个控制平面进行隔离,管理不同的实体。代表有 VRF。
  • 多虚一,是将多个控制实体之间的信息进行沟通整合,形成一个逻辑对象。

多数据中心的选择

  • 一个是多个服务在不同站点,如何搞负载均衡。主要想法是更新 DNS 或 NAT 映射信息。
  • 一个是迁移服务,保持 IP 不变。其实主要是想法从 IP (同时做标志和位置) 中将标志信息提取出来,这个是个很古老的想法了。

SLB/GSLB/3DNS/GSS

LISP:Cisco 私有协议

后端存储网络

传统的fabric网络

发展比较缓慢。

FCoE

在以太网上封装 fabric 的协议。

转载请注明:http://blog.csdn.net/yeasy/article/details/42967049

时间: 2024-08-04 00:01:35

数据中心核心网络技术一览的相关文章

[转]漫谈数据中心CLOS网络架构

http://djt.qq.com/article/view/238 1.数据中心网络架构挑战 随着技术的发展,数据中心的规模越来越大,一个数据中心的服务器容量从几年前的几千台服务器发展到今天的几万甚至几十万台.为了降低网络建设和运维成本,数据中心网络的设计者们也竭力将一个网络模块的规模尽可能扩大.同时,数据中心网络内部东西向流量也日益增加,在一些集群业务的需求驱动下,数据中心网络设计者们甚至开始讨论一个网络模块内10000台千兆线速服务器的可能性. 常见的数据中心网络模块的典型架构是双核心交换

SDN理解:数据中心物理网络

- 目录 - 云数据中心流量类型 - NSX整体网络结构 - 管理网络(API网络) - 租户网络 - 外联网络 - 存储网络 - openstack整体网络结构 - 管理网络:(上图中蓝线) - 外部网络:(上图中黑线) - 存储网络:(图中红线) - 租户网络:(图中红线) 目录 除去我们上一节提到的cisco 的ACI是与思科封闭,自成一体的SDN解决方案以外,大部分SDN的解决方案的重点都不在硬件设备上.常见SDN解决方案的目的都是尽量在现有的成熟交换机或者标准白牌openflow的交换

云计算环境下的数据中心、网络和系统架构

云计算环境下的数据中心.网络和系统架构 对于云计算而言,应着重从高端服务器.高密度低成本服务器.海量存储设备和高性能计算设备等基础设施领域提高云计算数据中心的数据处理能力. 云计算要求基础设施具有良好的弹性.扩展性.自动化.数据移动.多租户.空间效率和对虚拟化的支持.那么,云计算环境下的数据中心基础设施各部分的架构应该是什么样的呢? 1.云计算数据中心总体架构 云计算架构分为服务和管理两大部分.在服务方面,主要以提供用户基于云的各种服务为主,共包含3个层次:基础设施即服务IaaS.平台即服务Pa

[转帖]简析数据中心三大Overlay技术

简析数据中心三大Overlay技术 http://www.jifang360.com/news/20161010/n225987768.html 搭建大规模的云计算环境需要数据中心突破多种技术难题,其中虚拟化是云计算最为显著的特征.要满足虚拟机在数据中心任意网络位置之间都可以无感知迁移,就需要引入一些新的网络技术,Overlay技术就是在这样的背景下产生的.Overlay技术指的是一种网络架构上叠加的虚拟化技术模式,其大体框架是对基础网络不进行大规模修改的条件下,实现应用在网络上的承载,并能与其

digitalocean vps,9个数据中心:网络+I/O 具体情况

今天蛋疼来闲着无聊把digitalocean9个数据中心的VPS通过脚本全部跑一次,主要是给大家看看具体的网络情况以及所在机房的VPS的大致I/O情况.本次测试的环境是:digitalocean默认的debian 7 64位模板,没有更新,没有安装任何其他东西,纯空系统,测试时间在北京时间上午9-12点之间.需要普及一下:digitalocean默认是1000M端口,纯SSD硬盘(raid5),E5系列的CPU ,不限流量(网站上面写限制实际不限制). 官方网站:www.digitalocean

推荐-vultr vps,14个数据中心:网络+I/O 具体情况

晚上闲的无聊跑了一下vultr.com家的VPS的网络和I/O情况,先说明下我测试vultr的大致情况:我是晚上11点-12点测试的,各位可以根据时间换算大概知道服务器所在当地时区的时间:测试平台均为系统模板提供的debian 7(64),不安装任何其他东西,就连更新都没...这个文章发出来具体就是想让那些试图但是还没玩过vultr.com的朋友心中大致有个数据,这样好选择. 官方网站: www.vultr.com 首先大家需要了解的就是vultr.com的VPS的基本配置:E3系列的CPU是主

数据中心改造--网络布线

由于机房现在运行的网络已有7.8之久了,设备.线路都有一定的老化,在继续运行下去会有一定的风险,现公司决定对网络全部重新进行升级改造,下面总结一下改造过程中布线的全过程. 0.  各耗材使用数量如下图 1.  先见识一下各种材料 ①  尾纤 ②耦合器 ③光纤终端盒 ④尾纤和耦合器 ⑤上架后的样子 2.布线过程 ①  先布12芯万兆多磨光纤,从机柜顶部走线槽进行布线,这个比较好布,几十个机柜很快就布完了,有一点需要注意的是由于布线是从网络柜到各个机柜进行分布,网络柜出来的线很多,需要做好标签或标记

[转载] Google数据中心网络技术漫谈

原文: http://www.sdnlab.com/12700.html?from=timeline&isappinstalled=0#10006-weixin-1-52626-6b3bffd01fdde4900130bc5a2751b6d1&sukey=fc78a68049a14bb247c537e229e9301ea4dca80236df4f4e775535c08f0a24420a9ac4d726c99dad63a9f6e4c88271ed 真羡慕 google 强大的网络基础设施啊,

SDN与NFV技术在云数据中心的规模应用探讨

Neo 2016-1-29 | 发表评论 编者按:以云数据中心为切入点,首先对SDN领域中的叠加网络.SDN控制器.VxLAN 3种重要技术特点进行了研究,接下来对NFV领域中的通用服务器性能.服务链两类关键问题展开具体分析.最后,阐述了前期开展的SDN/NFV技术试验工 作进展及相关结论,并对VDC应用产品进行了展望. 1 引言 伴随着云计算技术的兴起,数据趋于大集中,传统电信系统网络架构成为阻碍云数据中心发展的巨大桎梏.为满足数据中心在云计算环境下的虚拟网络资源调度和共享需求,未来的数据中心