Rancher v1.2:网络架构解读

在之前的Rancher版本上,用户时常抱怨Rancher的网络只有IPsec,没有其他选择。而容器社区的发展是十分迅猛的,各种容器网络插件风起云涌,欲在江湖中一争高下。Rancher v1.2版本中与时俱进,对之前的网络实现进行了改造,支持了CNI标准,除IPsec之外又实现了呼声比较高的VXLAN网络,同时增加了CNI插件管理机制,让我们可以hacking接入其他第三方CNI插件。本文将和大家一起解读一下Rancher v1.2中网络的实现。

Rancher-net CNI化

以最简单最快速方式部署Rancher并添加Host,以默认的IPsec网络部署一个简单的应用后,进入应用容器内部看一看网络情况,对比一下之前的Rancher版本:

我们最直观的感受便是,网卡名从eth0到[email protected]有了变化,原先网卡多IP的实现也去掉了,变成了单纯的IPsec网络IP。这其实就引来了我们要探讨的内容,虽然网络实现还是IPsec,但是rancher-net组件实际上是已经基于CNI标准了。最直接的证明就是看一下,rancher-net镜像的Dockerfile:

熟悉CNI规范的伙伴都知道/opt/cni/bin目录是CNI的插件目录,bridge和loopback也是CNI的默认插件,这里的rancher-bridge实际上和CNI原生的bridge没有太大差别,只是在幂等性健壮性上做了增强。而在IPAM也就是IP地址管理上,Rancher实现了一个自己的rancher-cni-ipam,它的实现非常简单,就是通过访问rancher-metadata来获取系统给容器分配的IP。Rancher实际上Fork了CNI的代码并做了这些修改,https://github.com/rancher/cni。这样看来实际上,rancher-net的IPsec和Vxlan网络其实就是基于CNI的bridge基础上实现的。

在解释rancher-net怎么和CNI融合之前,我们需要了解一下CNI bridge模式是怎么工作的。举个例子,假设有两个容器nginx和mysql,每个容器都有自己的eth0,由于每个容器都是在各自的namespace里面,所以互相之间是无法通信的,这就需要在外部构建一个bridge来做二层转发,容器内的eth0和外部连接在容器上的虚拟网卡构建成对的veth设备,这样容器之间就可以通信了。其实无论是docker的bridge还是cni的bridge,这部分工作原理是差不多的,如图所示:

那么我们都知道CNI网络在创建时需要有一个配置,这个配置用来定义CNI网络模式,读取哪个CNI插件。在这个场景下也就是cni bridge的信息,这个信息rancher是通过rancher-compose传入metadata来控制的。查看ipsec服务的rancher-compose.yml可以看到,type使用rancher-bridge,ipam使用rancher-cni-ipam,bridge网桥则复用了docker0,有了这个配置我们甚至可以随意定义ipsec网络的CIDR,如下图所示:

ipsec服务实际上有两个容器:一个是ipsec主容器,内部包含rancher-net服务和ipsec需要的charon服务;另一个sidekick容器是cni-driver,它来控制cni bridge的构建。两端主机通过IPsec隧道网络通信时,数据包到达物理网卡时,需要通过Host内的Iptables规则转发到ipsec容器内,这个Iptables规则管理则是由network-manager组件来完成的,https://github.com/rancher/plugin-manager。其原理如下图所示(以IPsec为例):

整体上看cni ipsec的实现比之前的ipsec精进了不少,而且也做了大量的解耦工作,不单纯是走向社区的标准,之前大量的Iptables规则也有了很大的减少,性能上其实也有了很大提升。

Rancher-net vxlan的实现

那么rancher-net的另外一个backend vxlan又是如何实现的呢?我们需要创建一套VXLAN网络环境来一探究竟,默认的Cattle引擎网络是IPsec,如果修改成VXLAN有很多种方式,可以参考我下面使用的方式。

首先,创建一个新的Environment Template,把Rancher IPsec禁用,同时开启Rancher VXLAN,如下图所示:

然后,我们创建一个新的ENV,并使用刚才创建的模版Cattle-VXLAN,创建完成后,添加Host即可使用。如下图所示:

以分析IPsec网络实现方式来分析VXLAN,基本上会发现其原理大致相同。同样是基于CNI bridge,使用rancher提供的rancher-cni-bridge、rancher-cni-ipam,网络配置信息以metadata方式注入。区别就在于rancher-net容器内部,rancher-net激活的是vxlan driver,它会生成一个vtep1042设备,并开启udp 4789端口,这个设备基于udp 4789构建vxlan overlay的两端通信,对于本机的容器通过eth0走bridge通信,对于其他Host的容器,则是通过路由规则转发到vtep1042设备上,再通过overlay到对端主机,由对端主机的bridge转发到相应的容器上。整个过程如图所示:

总结

容器网络是容器云平台中很重要的一环,对于不同的规模、不同的安全要求,会有不同的选型。Rancher的默认网络改造成了CNI标准,同时也会支持其他第三方CNI插件,结合Rancher独有的Environment Template功能,用户可以在一个大集群中的每个隔离环境内,创建不同的网络模式,以满足各种业务场景需求,这种管理的灵活性是其他平台没有的。

原文来源:Rancher Labs

时间: 2024-08-04 02:47:34

Rancher v1.2:网络架构解读的相关文章

Rancher v1.2基础设施引擎整体架构分析

Rancher Labs官方于12月1日发布了其容器部署与管理平台Rancher的最新版本,Rancher v1.2.Rancher v1.2可以说是一个里程碑版本,只要体会其新版功能,会发现漫长的等待绝对是值得的. 从架构角度看,用两个字来概括就是"解耦",基础设施引擎的分离,agent节点的服务粒度更细: 从产品角度看,给了用户更多定制的空间,Rancher依然秉持着全部OpenSource的理念: 在开发语言上,之前遗留的通过shell脚本方式的粗糙实现也都基于Golang重写,

RNN-RBM for music composition 网络架构及程序解读

RNN(recurrent  neural network)是神经网络的一种,主要用于时序数据的分析,预测,分类等. RNN的general介绍请见下一篇文章<Deep learning From Image to Sequence>.本文针对对deep learning有一点基础(神经网络基本training原理,RBM结构及原理,简单时序模型)的小伙伴讲一下Bengio一个工作(RNNRBM)的原理和实现. 本文重点内容:针对RNN(recurrent neural network)一个应

Rancher v1.3发布:Windows Container来了!

2016年12月初,当我们发布Rancher v1.2时,就定下了未来「更频繁的迭代」的计划.就在上周,Rancher v1.3正式发布啦!除了对v1.2中一些bug的修复之外,它还有几个新的功能:1)用户界面修复:2)DNS引擎的更改:3)Kubernetes及其相关工具的改进. 最重要的是,在Rancher v1.3中,我们开始解决从用户那里收到的一个频繁请求:对Windows 2016的支持! Rancher v1.3中对Windows的支持仍是实验性质的,范围有限,但它是Rancher

Rancher v1.2新版本亮点解析

Rancher最新版本Rancher v1.2已全面发布,除了对最新版本的Kubernetes.Docker和Docker Compose的必要支持之外,此次升级还包括对Rancher容器管理平台本身的主要功能的提升. Rancher v1.2完全支持最新的存储和网络插件框架(后面将更详细地介绍),并提供了新的简化版HA设置.能够更灵活配置的Rancher HAProxy负载均衡器,以及一个新的Rancher CLI.我们还增加了SAML 2.0支持.资源调度,以及针对性能和可扩展性的诸多改进.

01 &nbsp; Cisco网络架构

智能信息网(Intelligent Information Network, IIN) 面向服务的网络架构(Service-Oriented Network Architecture,SONA) 融合网络数据流: 语音和视频数据流.语音应用数据流.关键任务数据流.交易数据流.路由协议数据流.网络管理数据流 Cisco IIN 3个阶段 阶段1--集成传输:将数据.语音和视频合并到一个IP网络中,从而实现安全的网络融合. 阶段2--集成服务:通过融合网络集成设施,可以集中和共享IT资源(这被称为虚

通过Microsoft Azure服务设计网络架构的经验分享(转)

原文:http://www.infoq.com/cn/articles/azure-networking-tips 本文从产品设计和架构角度分享了 Microsoft Azure 网络服务方面的使用经验,希望你在阅读本文之后能够了解这些服务之间,从而更好地设计你的架构. Microsoft Azure 的网络架构特别针对企业私有云和混合云进行了设计,其中包含三个常用的服务: 虚拟网络(Virtual Network):连接本地网络与云端基础设施 流量管理器(Traffic Manager):将用

B/S网络架构

B/S基于统一的应用层协议HTTP来交互数据,目前的B/S网络架构大多采用如图所示的架构设计,既要满足海量用户访问请求,又要保持用户请求的快速响应. 当一个用户在浏览器输入www.taobao.com这个URL时,将会发生很多操作.首先它会请求DNS把这个域名解析成对应的IP地址,然后根据这个IP地址在互联网中找到对应的服务器,向这个服务器发起一个get请求,由这个服务器决定返回默认的数据资源给访问的用户.在服务器端实际上还有很复杂的业务逻辑:服务器可能有很多台,到底指定哪台服务器来处理请求:还

企业网络架构规划及配置实施(实用)

企业基础网络架构规划及配置实施 一.网络规划 出口地址段:202.1.1.0/24 路由器出口:202.1.1.1/24 ISP网关:202.1.1.2/24 互联地址段 192.168.90.0/24 路由器:192.168.90.1/24 核心交换机:192.168.90.2/24 管理地址段:192.168.100.0/24 核心管理地址:192.168.100.1/24 接入LI-1:192.168.100.11/24 接入LI-2:192.168.100.12/24 接入LI-3:19

网络架构

网络架构: 两种:C/S Client Server 特点: 客户端和服务端都需要填写. 客户端需要维护. 客户端可以分担部分运算. 如大型运算,比如网络游戏. B/S Browser Server 特点: 只需要编写服务端,客户端其实就是已有的浏览器. 客户端是不需要维护的. 运算全在服务端.