数据中心分解实验(三)-N5K

经过上次的实验,我们了解了下N7K之后,今天要继续了解75 2构架里的N5K。

对比起N7K的高大上(主要是VDC功能相当之高大上,喂,一台设备变N台还不牛逼?)N5K算是小跟班一个了,不论是使用三层构架还是坍塌的二层结构,N7K都是当之无愧的核心层设备,而N5K一般用在汇聚层,土豪点的用在接入层。

硬件上来说,区别于N7K的硬件模块化,N5K的硬件算是半模块化的(跟大多数中低端路由器很类似,有固定端口,又可以插小型的板卡用于扩展端口)。

软件上来说,可以把N5K当成是N7K的一个VDC,跟N7K一样都是用NX-OS的命令集,所以要配置啥,先开开关(打开Feature-set或Feature)。

来张正面照片看看咯,

继续看一下N2K,这个称之为设备都有点抬举他啦,基本上,N2K只能算是一块板卡。也就是说,这家伙是不能独立工作的,他必须依附于一台真正的设备N7K或者N5K,作为这些设备的一个模块提供接口转发数据使用。换句话说,如果实验、工作环境里只有一台N2K,无论如何是无法工作的。

N2K的所有配置管理,都是在控制设备N7K或N5K上完成的。

N2K有一个另外的名字叫Fabric Extender,简称FEX。(N2K是一种FEX,不过FEX作为一种扩展技术,并不只有N2K一种,后面有机会讲到其他FEX技术的时候我们再扩展啦~)

照例看一下正面照:

大致了解完设备之后,我们来做个小实验吧,

逻辑实验拓扑

实验目标:

完成DC2-N5K-1和DC2-N5K-2之间的Port-Channel200的互联配置

将DC2-N2K-1作为FEX注册到两台N5K上

说起Port-Channel,就是链路捆绑或者叫链路聚合,反正是一个意思啦。传统网络里也很多,基本的作用呢就是扩充可用带宽并且避免环路。按照我们的实验拓扑看,DC2-N75-1和DC2-N5K-2之间的带宽就是两个接口带宽之和,是不是比用一个接口互联要宽了呢?好像是废话。必须强调的是,Port-Channel的两端都是一台设备。

那么怎么做Port-Channel呢,在数据中心里,支持两种方式:

1.   静态指定,即mode on

2.   使用LACP协议协商,即modeactive / passive,

不支持PAGP,好像跟传统网络的方式差不多,就是不支持PAGP而已嘛。

注意不管选哪种模式,两端必须匹配:

两端设备的Port-Channel模式 工作状态
On - On OK
On – Active Failed
On – Passive Failed
Active – Active OK
Active – Passive OK

Show time,实验开始:

跟N7K一样,要先开启Feature再使用

捆绑完成会产生一个port-channel200的接口,这个接口可以配置成是交换接口(switchport),也可以配置成是路由接口(no switchport)

看到Po200后面是(U),Eth1/10后面是(P),就说明接口已经开始工作啦~

继续,N2K要作为FEX在N5K上被使用,需要开启FEX的Feature

N5K到N2K之间的Port-Channel一定是静态指定(modeon),不支持LACP!

FEX模块上线咯~(103是随便取的,可取的范围是100-199),

至此,N2K已经可以在N5K上被配置管理,一台N2K同时属于两台N5K

第一阶段实验完成,vPC的部分我们在实验四中继续探讨~

时间: 2024-10-15 03:02:57

数据中心分解实验(三)-N5K的相关文章

数据中心分解实验(五)--abricPath

这个实验有点长,看官慢慢看! 传说中用来取代生成树(Spanning-tree)的FabricPath(这个还真不太好翻译,就简称FP吧),到底是啥?先别急,首先回顾一下生成树协议,作为二层网络的防环路机制,生成树确实有积极的一面,不过缺点也是一大堆啦: 1.    收敛很慢,论秒计的速度: 2.    运算机制也比较复杂,配置管理和维护也相对复杂: 3.    网络里有接口被BLOCK,才能形成无环路的树: 在数据中心网络里,这些缺点都会进一步被放大,设想:一台服务器连接到网络上,需要若干秒才

数据中心分解实验四--PC和VPC

OK,I am Back.实验3学习了N5K并简单的回顾了Port-Channel,继续介绍数据中心里面的一项新的技术 ---vPC(virtual Port-Channel),虚拟的链路捆绑.前面我们提过Port-Channel的两端是一台物理设备,那vPC两端呢,那就不一定啦,经典的vPC环境如下图所示:一端为DC2-N5K-1和DC2-N5K-2组合成的逻辑实体(一个vPC Domain下的两台vPC PeerSwitch),另一端为DC2-N2K-1. 实验逻辑拓扑: 上个实验里面我们已

数据中心分解实验(二)--“初见N7K”

啦啦啦,好汉们,又见面了,罗嗦了一集"7 5 2"之后,今天是带你玩弄DC的第二个实验 -"初见N7K".(人生若只如初见?我呸,这样岂不是一辈子不能将N7K玩弄于股掌之间了吗!) 首先,啥是N7K,N7K是Nexus 7000的简称,在思科的产品结构里面,7系列的产品有两款,Nexus 7000和Nexus 7700,主要区别体现在性能上. (其实思科挺背的,我们最熟悉的Nexus应该是谷歌出的Nexus系列的平板和手机,另外对于思科的IOS来说,我们最熟悉的IO

数据中心分解实验(七)---OSPF EIGRP

这个实验里面,我们继续来看看数据中心网络中的路由协议有什么特别之处呢,好吧,答案跟FHRP一样,其实在数据中心的OSPF和EIGRP的部署与常规网络里几乎是没有区别的. 为啥不讨论RIP和BGP?基本上是因为RIP比起OSPF跟EIGRP起来,是毫无优势可言,满满的都是劣势啊,而BGP通常应该部署在大网中(大网类似于运营商的网络啦又或者是跨国公司的广域网啦),所以呢,这里我们就不讨论BGP的问题了. 对于目前主流的数据中心来说,内部的网络是二层的,网关和路由通常部署在网络的边缘,这里有两种不同的

软件定义数据中心浅见

真的是浅见,以后随着认识的加深,可能会更新该文. SDDC概述 人家聊SDN.SDS等,VMware干脆跟大家聊SDDC(Software-Defined Data Center),即软件定义数据中心. SDDC是VMware大约三年前提出的概念,认为是云计算的终极形态,并提出数据中心可以通过三个步骤来实现软件 定义,这三个步骤分别为Abstract.Pool.Automate,即首先将物理资源进行抽象,然后将抽象后的逻辑资源池化, 最后将资源池按需自动化部署.编排. 那为什么要软件来定义数据中

双活数据中心架构分析及优缺点

什么是双活数据中心 ? 首先我们要知道双活就是Active-Active,故名思义就是两边都是活动在线提供服务的,是相对于传统的主备模式Active-Standby模式的.一个真正的双活方案是应该涵盖基础设施.中间件.应用程序各个层次的. 双数据中心同时对外提供业务生产服务的双活模式,两个数据中心是对等的.不分主从.并可同时部署业务,可极大的提高资源的利用率和系统的工作效率.性能,让客户从容灾系统的**中获得最大的价值. a.两个生产中心部署相同的业务系统,结合网络层.主机层或应用的负载均衡技术

从两地三中心到双活数据中心

两地三中心 两地三中心的有几种实现形式,下图是一种典型案例. 在这一案例中,正常情况下,业务运行在主机房的设备之上.主存储与辅存储存在单向同步关系,即主储存的所有数据变更都会实时同步复制①到次存储上,从而保证两个存储数据完全一致.同时,为防止极端灾害发生,主存储的数据变更也会通过异步复制②的方式同步到远程容灾机房的存储设备上. 当主中心因为各种原因中断服务时,可以通过手工命令或者软件自动切换的方式让业务切换到辅机房. 如果极端情况发生,辅机房也不能运行业务,那么远程容灾机房还有一份数据保存,可以

三个半月建一座高等级数据中心

深圳盐田港数据中心的实际建设周期只有三个半月,虽然建设速度快.成本低,但是品质没有打折.这一切都要归功于工厂预制这一新的数据中心建设方式.在国外日渐流行的预制模块化数据中心能否经得起中国用户的考验呢?还是让盐田港数据中心的设计者和建设者亲自告诉你吧. 2014年3月29日,深圳云基地暨中国首个预制模块化数据中心正式启用.该数据中心一期工程从2013年9月设备进场到2014年1月整个项目顺利完工,用时不到4个月,其中最让人津津乐道的就是一个"快"字,而这个"快"字正好

[运维] 第三篇:漫谈数据中心运维自动化

运维自动化是从2010年以后起来的一个运维需求,10年之前,运维项目主要集中在监控和ITIL流程上,当时也有BMC Control-M等产品在推,但是客户接受程度和影响力不如监控和流程.10年之后,运维自动化提上日程,建行开始招运维自动化的标,IBM.BMC.HP都纷纷参与,测了三轮,最后HP opsware中标,只能说一句厉害!工商银行也在自己组织服务商做自己特色的运维自动化平台,做了3.4年,基本成型,服务商也做出了自己的运维自动化产品,正式推向市场.当时运维自动化的主要功能是五项:自动化巡