图解网络虚拟化之概念篇

简单说就是把网络层的一些功能从硬件中剥离出来,新建立所谓的网络虚拟层。如果和服务器虚拟化对比来看,会帮助我们理解这个概念。

标签:虚拟化 VMware 认证 云计算

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://frankfan.blog.51cto.com/6402282/1170930

作者:范军 (Frank Fan)

新浪微博:@frankfan7

如果要实现软件定义数据中心的愿景,网络虚拟化将会是旅程中的最后一公里。IDC估计网络虚拟化市场会从2013年 360 million美金增长到2016年的 3.7 billion。众多巨头接连大手笔,而很多新创公司也纷纷瞄准了这个方向。我们从下面几个方面来谈谈这意味着什么。

 一  巨头间的博弈

由于云计算逐渐进入成熟阶段,解决传统网络架构面临的挑战显得越来越迫切。中小企业可能还好,最着急的是谁啊?这些互联网和IaaS巨头们。适逢斯坦福大学开发了OpenFlow,是一种网络虚拟化的概念的具体实现。 Google和Facebook于是作为支持OpenFlow的领头羊,积极参与Open Networking Foundation(ONF)的标准化制定和推广活动。

传统网络提供商也不得不与时俱进,否则很可能被大客户们绕开自行开发。网络虚拟化新兴公司Nicira把握住了时代机遇,与Openstack深度整合,为包括eBay在内的很多巨头提供解决方案。

已经在服务器虚拟化市场处于领先地位的VMware, 也频频重拳出击。在2012年6月以VMware12.6亿美金并购当时营业额仅1千万美金的Nicira,  惹得一番热议。网络虚拟化的重要性可见一斑。

网络虚拟化是一场微妙的巨头间的博弈,最后的局面如何,我们拭目以待。中小企业和IT从业者,虽然这是大户间的游戏,可无论谁胜谁负,最终会波及我们散户不是?还是未雨绸缪,了解一下先为好。

二 传统网络架构的挑战

近年来服务器和存储虚拟化技术的迅猛发展, 使得动态快速分配计算资源和存储资源成为很平常的事。从而大大缩短了创建服务器的时间。相比之下,目前的传统网路架构显得不太给力,成为整个资源分配流程中的短板。

比如说, 很多情况下提供网路资源需要人工干预。网络交换机端口配置、ACL、路由等等。 在广域网数据中心的情况下,因为数据中心间的互联大多通过三层网路协议。如果在数据中心之间移植应用程序,需要特别注意应用程序中对网路环境的配置。如果服务器的数量较大,这绝对是件费时费力的事情。 企业级的兼并要求网络系统的快速整合,实施过整合项目的朋友应该知道这其中的水有多深。项目复杂性和实施周期都很有挑战。 企业现有系统和云平台的整合。上一个SaaS系统可能很快,可你不希望一个个SaaS成为信息孤岛。你可能需要SaaS和你已有系统的数据交互,比如和SAP. 如果你使用IaaS公有云的话,也许希望和已有的系统整合,这就是混合云的概念。这也需要充分考虑到你的网络能否满足应用从本地到公有云的无缝移植。 不能充分利用网络资源。大多数公司能利用到网络资源的30%-40%就不错了。很多情况下大量资源闲置,而某些时候由于数据量周期性的猛增,却发现网络资源不够。很多ISP或者通讯网络提供商们很挠头,在用户基本收费增长不大的情况下,用户期望的数据流量却比以往增大很多。除了网络扩容之外,更重要的提高目前已有网络的利用率。Google宣称由于使用Openflow(网络虚拟化技术中的一种实现),他们内部网络使用率将接近100%

什么是网络虚拟化

其实这个概念本不陌生,Overlays, MPLS, VPNs, VLANs, LISP, Virtual routers, VRFs等都可以认为是网络虚拟化的某种表现形式。可当前新兴的网络虚拟化概念从深度、广度和影响都远远超过了以上的技术。

简单说就是把网络层的一些功能从硬件中剥离出来,新建立所谓的网络虚拟层。如果和服务器虚拟化对比来看,会帮助我们理解这个概念。

如今跑在虚拟机上的应用,只需要使用Hypervisor所支持的虚拟CPU和虚拟内存就够了,就应用本身无需关心跑在什么底层的硬件设备上。同时操作系统和应用基本无需更改什么,有时候或许简单针对虚拟化优化一下。

网络虚拟化同理,应用本身无需关心很多传统意义上的网络信息,比如路由,IP等等,这些有网络虚拟层来管。而底层的硬件呢,纯粹提供最基本的功能,很多复杂的信息及其配置也由网络虚拟层来托管。比如(L2,L3,tagging,couters,ACLs,etc)而很多2层以上的网络服务,只需要和网络虚拟层打交道,没必要知道底层跑什么硬件。

另外更深次的影响是运维方面。由于很多信息被抽取到网络虚拟层,我们可以更高效的来管理和配置它,并容易实现配置的可编程化和一致性。无需纠结于每个硬件设备复杂的iOS 配置了。

下图解释了网络虚拟化的好处。

网络虚拟化并不等同于软件定义的网路。这两个概念常常被混淆。网络虚拟化是一个解决方案,而软件定义的网路只是这个解决方案的众多实施方法中的一种。 我们把部分网络信息和功能提取出来以后,总要有办法去存储这些信息,并随时了解他们的状态吧。 这时候软件定义的网络就有用武之地了。通常有一个可以集中控制的模块来实现这些功能。

请关注即将推出的下文 - 图解网络虚拟化之实现篇

参考文章:

VMware NSX Network Virtualization

Network Heresy

Open Source, Open Interfaces, and Open Networking

VXLAN, STT, and looking beyond the wire format

BRADHEDLUND’sblog

本文出自 “范军的博客” 博客,请务必保留此出处http://frankfan.blog.51cto.com/6402282/1170930

时间: 2025-01-05 03:01:08

图解网络虚拟化之概念篇的相关文章

深入浅出Hyper-V网络虚拟化(序)

服务器虚拟化已经越来越普及,很多企业也都在尝试着将现有业务转换成虚拟化的方式来运行,即在一个物理服务器上虚拟出多个实例,而每个实例彼此隔离,就好像在使用一台真实主机一样:网络虚拟化也同样如此,在同一条物理链路上虚拟出若干网络环境,且彼此隔离:不光如此,网络虚拟化还打破了传统VLAN以及IP地址分配方面的不便捷性,使用网络虚拟化可以把现有业务直接无缝的托管到IaaS中,而整个过程甚至无需考虑IP地址的重复性,现有应用的访问也不需要做任何修改 那么说到网络虚拟化就不得不提到“软件定义网络(SDN)”

图解几个与Linux网络虚拟化相关的虚拟网卡-VETH/MACVLAN/MACVTAP/IPVLAN

Linux的网卡驱动中内含了很多"虚拟网卡".早先的文章曾经详细分析过tun,ifb等虚拟网卡,类似的思路,在虚拟化大行其道的趋势下,Linux源码树中不断增加对"网络虚拟化"的支持,不光是为了支持"虚拟机"技术,更多的是给了用户和程序员更多的选择.       这些对网络虚拟化的支持技术包括任何重量级的虚拟化技术,比较重的比如对虚拟机技术的支持,轻量级的则是net namespace技术.近期的工作基于net namespace技术,关于这个技

【VMCloud云平台】SCVMM进阶篇(一)网络虚拟化(2)

上一篇,我们讲了下最基本的SDN,就是使用CA地址的客户端如何去访问外部的网络?网络虚拟化里是否有类似"VLAN虚拟网关"的概念?还有PA跟CA到底之间具体的联系是如何实现的? 本篇涉及的网络架构由于是SCVMM进阶篇,就把SCVMM部分单独拿出来扩展,随着SCVMM进阶篇的推进,将会不断更新SCVMM架构图,图中Red.Blue两朵云分别代表租户的两个网络,Host-GW是用来做VMM网关(IP地址设置为23): 1. 上一篇中,我们创建了SC_NetWork作为主机间通信的&quo

【VMCloud云平台】SCVMM进阶篇(一)网络虚拟化(1)

SCVMM基础篇已经告一段落了,今天咱们开始SCVMM进阶篇中的第一篇网络虚拟化,其实这个是博主最不想提的一个点,因为实在很难理解,如果对虚拟化没有一个大概的概念的话,完全不清楚网络虚拟化在虚拟化中以及云计算中的一个地位是怎么样的. 放眼当下,虚拟化技术已经不仅仅局限于服务器,基于服务器下的各种概念都可以被"虚拟化",软件定义网络(SDN)就是一个,而网络虚拟化就是SDN中的一种体现. 将现有网络通过微软提供的虚拟化技术加上NVGRE标签封装,使得不同租户之间使用相同IP也不会造成冲突

[转]数据中心网络虚拟化 主流平台产品介绍

http://www.sdnlab.com/12076.html SDNLAB 为了对数据中心网络虚拟化有个初步的认识,本文将对当前比较主流的几款商业平台进行介绍,包括VMware公司的网络虚拟化技术,IBM公司的Dove及开源的OpenDove平台, NEC公司的virtual-network-platform和VTN平台,以及Cisco公司的Nexus虚拟化平台. 1.Vmware公司的网络虚拟化技术 VMware在虚拟化领域的领导地位使得我们必须首先介绍一下他们的网络虚拟化技术NSX.然而

【微软公有云系列】Hyper-v(WinSer 2012 R2)网络虚拟化(四)NVGRE 网关实现NAT

微软公有云系列,前面的几篇文章相信可以让大家能对网络虚拟化有了一些基本的了解.那么接下来,我将实现网络虚拟化在真实的环境中,更重要的一些功能,NVGRE的网关功能. 第一个Demo是通过NVGRE的网关功能,实现NAT,就是让租户的虚拟机能够访问外网,同时外网能通过开放的端口来访问租户在公有云提供的虚拟机. 第二个Demo是通过NVGRE的网关功能,实现Site to Site 的VPN访问,当租户租用了我们公有云平台提供的虚拟机之后,如何跟其企业本地的数据中心能连通,这就需要利用到Site t

【微软公有云系列】Hyper-v(WinSer 2012 R2)网络虚拟化(五)NVGRE   网关实现VPN (Site to Site)

接着上一篇NAT的实现,我们陆续接着Demo 2的 NVGRE   网关实现VPN (Site to Site) Demo 2 环境介绍 待续.. [微软公有云系列]Hyper-v(WinSer 2012 R2)网络虚拟化(五)NVGRE   网关实现VPN (Site to Site),布布扣,bubuko.com

【转】 HMC与VIOS对新LPAR提供存储与网络虚拟化的支持

前面的几篇博文的操作环境都是在IVM下,IVM可以看作是VIOS的一部分,或者是对VIOS功能的一个扩展,一个IVM只能管理1台物理服务器,而HMC则是一对多.在有HMC来管理物理服务器的情形下,VIOS中的IVM功能将被屏蔽,其相应的功能将由HMC来接管. 下面是在HMC环境下创建一个新的LPAR的命令:[email protected]:~> mksyscfg -r lpar -m Server-8231-E2B-SN104A4AR -i "name=dennis,lpar_env=a

[转]数据中心网络虚拟化 隧道技术

http://www.sdnlab.com/12077.html SDNLAB 如何实现不同租户和应用间的地址空间和数据流量的隔离是实现数据中心网络虚拟化首先需要解决的几个问题之一.所谓地址空间的隔离是指不同租户和应用之间的网络(ip)地址之间不会产生相互干扰.换句话说,两个租户完全可以使用相同的网络地址.所谓数据流量的隔离是指任何一个租户和应用都不会感知或捕获到其他虚拟网络内部的流量.为了实现上述目的,我们可以在物理网络上面为租户构建各自的覆盖(overlay)网络,而隧道封装技术则是实现覆盖