数据中心如何实现传统网络与容器网络的架构共存

一、概述
随着数据中心网络技术的革新,并伴随容器的落地,如何在数据中心内部构建一个合理可用的网络架构,以满足不同形态的业务部署模式,成为一个网络人员越来越需要注重和考虑的方向。

二、业务背景
在互联网公司的数据中心,通常你会越来越多的看到容器(k8s)作为业务/服务的载体,各业务/服务之间(pod间)彼此调用,以下从pod间调用、容器网络选型、容器网络架构、网络隔离几个方面进行阐述。

三、pod间调用

  1. 同一node内pod间调用

    pod间通过容器网络纯内部交互,这时外部网络无感知。
  2. 不通node的pod间调用

    pod间需要经过容器网络→外部网络进行交互,交互过程可提前将pod ip或cluster ip暴露到外网,具体依据业务需求和网络模型而定。

四、容器网络选型
容器网络选型通常参照以下几点:

  1. 业务实现方式;
  2. 网络资源调配;
  3. 网络扩展及灵活性;
  4. 对底层物理网络的依赖度;
  5. 网络资源的收放要求;

开源容器网络组件按照网络覆盖类型大致可分为:overlay和underlay,underlay相比overlay在传输效率、部署实现及维护等方面更有优势(详细的各种容器网络组件横向比较,可自行查询学习,此处不详细展开)。
以calico为例,作为underlay的容器网络解决方案,依靠动态路由协议bgp实现网络互通,并通过原生的network policy解决容器间网络隔离。
calico介绍:

  1. felix: calico agent,运行在每个node节点上,负责配置各节点路由及 ACL信息来确保每个pod的连通状态;
  2. etcd: 分布式键值存储,负责保存所有node节点的网络状态信息;
  3. bird: 负责把路由信息分发到当前calico网络,确保node间通信的有效性;
  4. 简单理解,calico可视作运行在node节点上的一个只有bgp功能的路由器(详细的calico介绍,可参见calico官网:https://www.projectcalico.org
  5. calico支持e/ibgp邻接关系,支持next-hop-self/next-hop-unchanged,建议优化bgp timer,开启graceful restart;

五、容器网络架构
calico建议组网架构如下图:

  • BGP-RR落在master节点,集群内的其他node与RR建立iBGP,考虑到容器网络稳定性,建议RR数量≥2:
  • 集群全部节点与外部物理网络建立iBGP/eBGP:

上述两种组网架构,结合实际业务场景进行选择,但无论哪种结构,均需要做好网络资源的科学合理规划,包括但不限于:

  1. IP地址
  2. BGP邻接关系选择
  3. ASN规划
  4. 路由收放策略
  5. 容器网络与底层网络的隔离需求

六、网络隔离
环境隔离,例如:生产环境和测试环境隔离,这里还需要考虑:

  1. 以node为环境最小粒度——隔离策略部署在外部物理网络,可通过ACLs、VRF等;
  2. 以pod为环境最小粒度——通过calico原生的network policy进行环境隔离;

七、总结
当前数据中心随着虚拟化/容器等技术的引进,对网络结构提出更高、更精细的规划需求,底层网络的技术选取、架构模型将更多的影响虚拟/容器网络的落地成本、实施难易度,因此需要网络规划者要在前期介入时,了解业务发展方向、技术发展方向及成本、灵活性等因素。

原文地址:https://blog.51cto.com/tommy1108/2481314

时间: 2024-10-07 10:36:52

数据中心如何实现传统网络与容器网络的架构共存的相关文章

京东如何处理数据中心网络对应用性能的影响

?随着现代数据中心规模的不断扩张,网络拓扑和路由转发变得越来越复杂.传统的数据中心使用大型机和小型机,网络规模相对较小,普通的机框式交换机就能满足网络的需求.随着CLOS集群架构的普及,标准的x86服务器集群以低成本和高扩展性逐渐取代大型机和小型机而成为数据中心的主流. 下图就是一个典型的基于CLOS架构的数据中心解决方案,在这样的大规模网络中,如何让数据在传输过程中能以最快的速度从发送端到接收端,成为网络性能调优的关键因素. 京东IT资源服务部举办的未来数据中心核心技术研讨会上,京东人工智能,

SDN理解:数据中心物理网络

- 目录 - 云数据中心流量类型 - NSX整体网络结构 - 管理网络(API网络) - 租户网络 - 外联网络 - 存储网络 - openstack整体网络结构 - 管理网络:(上图中蓝线) - 外部网络:(上图中黑线) - 存储网络:(图中红线) - 租户网络:(图中红线) 目录 除去我们上一节提到的cisco 的ACI是与思科封闭,自成一体的SDN解决方案以外,大部分SDN的解决方案的重点都不在硬件设备上.常见SDN解决方案的目的都是尽量在现有的成熟交换机或者标准白牌openflow的交换

艾默生网络能源的数据中心生意经

云计算的快速发展驱动着数据中心市场进入一个良好的上升发展期.艾默生网络能源将数据中心业务作为战略重点,以"提升客户价值"为核心,在产品上不断推陈出新,树立了高端的品牌形象,同时巩固了行业领军者的地位. 11月13日,以"聚云端 论英雄 共筑辉煌"为主题的艾默生网络能源2015财年合作伙伴大会在深圳举行.这是一届继往开来的大会,一方面回顾并总结了2014财年艾默生网络能源公司的业务发展;另一方面也为公司的长远发展定下了新基调--在电信4G建设.互联网行业的带动下,积极

云计算和大数据时代网络技术揭秘(十一)数据中心互联

数据中心互联——更广泛的二层网络 本章介绍跨数据中心的大二层网络互联技术,包括需求和业务模型,重点介绍传统VPLS方案和新兴的OTV方案. 图 VPLS的组网图 核心器件为PE,负责把CE接入VPLS网络 同时终结VPLS隧道,进入MPLS+IP核心网 图 OTV的组网图 通过OTV网关,在广域网上架设了跨数据中心的.具备控制平面的大二层网络 图 数据中心互联互通的几个层面 LISP+OTV是完美的组合 LISP在内部通信层面通过身份与位置信息分离,保证跨数据中心vlan内的通信机IP不变 OT

数据中心大二层网络的技术有哪些

数据中心网络主要分为计算网络,存储网络和互联网络,而计算网络是数据中心网络的核心网络. 传统的数据中心网络大多采用与园区网相似的二三层架构 优点: 部署容易,符合数据中心分区分模块的业务特点 但是随着数据中心从传统数据中心向虚拟化数据中心和云化数据中心发展演进,这种二三层混合网架构就显得力不从心.因为现在的数据中心都采用了虚拟化的技术,上层的虚拟机随着需求的变化而随意的进行动态迁移,而动态迁移的的关键就是要保证业务不中断,IP地址保持不变,运行状态保持不变,因此虚拟机的迁移只能在二层域里进行,而

SDN与NFV技术在云数据中心的规模应用探讨

Neo 2016-1-29 | 发表评论 编者按:以云数据中心为切入点,首先对SDN领域中的叠加网络.SDN控制器.VxLAN 3种重要技术特点进行了研究,接下来对NFV领域中的通用服务器性能.服务链两类关键问题展开具体分析.最后,阐述了前期开展的SDN/NFV技术试验工 作进展及相关结论,并对VDC应用产品进行了展望. 1 引言 伴随着云计算技术的兴起,数据趋于大集中,传统电信系统网络架构成为阻碍云数据中心发展的巨大桎梏.为满足数据中心在云计算环境下的虚拟网络资源调度和共享需求,未来的数据中心

未来数据中心的样子

在网上看到一个问题:未来数据中心是什么样子的?忍不住自己YY了一下,下面仅供参考 人工智能 在2014年,谷歌以大约6亿美元的价格收购了DeepMind公司,这是一家英国的人工智能(AI)公司.自那时以来,DeepMind公司就一直积极的投入技术和资源以努力解决困扰着当今大多数数据中心的能源效率的问题.谷歌一直在其自己的数据中心测试人工智能在提升能源效率方面的应用,其结果是:数据中心整体功耗减少了约40%. 水下数据中心 微软的Project Natick--水下数据中心项目,早就已经上新闻了,

易思捷虚拟化技术: 数据中心的颠覆----软硬一体化+平台战略

一.苹果的革命 很多人说,苹果是一家伟大的企业,它终结了一个时代,开启了一个时代. 上世纪七十年代起,Intel和微软成为毫无争疑的霸主:掌握着基础软件和硬件,由众多合作伙伴衍生制造,形成各种组合的产品,并形成PC时代 做电脑,苹果不一定是Intel的对手;做软件,苹果不一是微软的对手;做音乐,苹果更不一定是EMI(世界最大唱片公司)的对手,Walkman,苹果也不是索尼的对手,做相机,苹果不是柯达的对手. 但是,如果把三者结合起来,做"硬件+软件+平台",那他们都不是苹果的对手,苹果

如何建设云数据中心

关于数据中心,维基百科给出的定义是"数据中心是一整套复杂的设施.它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含冗余的数据通信连接.环境控制设备.监控设备以及各种安全装置".谷歌将数据中心解释为"多功能的建筑物,能容纳多个服务器以及通信设备.这些设备被放置在一起是因为它们具有相同的对环境的要求以及物理安全上的需求,并且这样放置便于维护",而"并不仅仅是一些服务器的集合." 当下,整个IT信息产业正朝着宽带化.移动化.智能化