为InfiniBand而哭泣

自古就不乏还没有开始就结束的那种精彩,我称之为殉道者。
InfiniBand就是其中之一,虽然它有陨落之势,我依然要为它鼓掌。
如果说以太网旨在将主机联系在一起,那么InfiniBand的初衷就是将其肢解,这种基因的不同,注定它们将展开一场大战,当然这是后话。

服务器强大了,但是PCI总线太慢了,且其并行化设计根本不适合高速环境,正确的做法是串行化,同时提高时钟频率,因为并行化根本就经不起时钟频率的提高,会撞车的。InfiniBand旨在将总线拉到机箱外部,提供一条高速的串行传输通路,它之所以能够成功,是因为它将端到端的复杂性分离了出来,不再由总线本身来决定,这个思路是对的,正如以太网从CSMA/CD的广播网络到交换式以太网的演进是一样的。
       控制逻辑从链路本身迁移到了链路的两端。于是hub出来了,对于没有控制器的hub来讲,正如其中文名字所说,它就是一个集线器,然后桥的概念随后引出,以太网网桥后来就成了交换机,到此为止,InfiniBand也在走一致的路线,它也许领悟到了并行传输与高频时钟不能兼得,于是采用高频时钟加串行的方式,且正如交换以太网一样,由总线拓扑改为了点对点拓扑,采用消息路由的方式,这真的就跟以太帧一样。如果InfiniBand朝着这个路继续走下去,不光取代了PCI,PCI-X,而且还很可能和以太网一决高下,以太网自出世就没有败过,都是靠成本KO对手,虽然这方面InfiniBand差一点,但它有足够的时间改进。起初以太网不也走过昂贵的同轴时代吗?
       InfiniBand和以太网的架构真的太像了,然而有一点不同,那就是InfiniBand是扁平的,而以太网是网络协议栈的一部分,它可以和IP进行接口,这也是其本职。而InfiniBand也是忠于自己的本职,它只是想把外设拉到机箱外,形成一个高速的可任意扩展的服务器总线新架构。你要想提高总线带宽或者增加一个新设备,很简单,只需要加一根线缆即可!这可成了InfiniBand的杀手锏。由于它可以在机箱外部,这种物理分离使得InfiniBand交换机成了一个独立的设备,而不再像PCI控制器那样属于主板。总之,一切都很完美。
       事情到这里,再往下说就有点心酸了...
       成本问题,加上互联网泡沫破灭导致的投资锐减,InfiniBand本身的问题让其很多拥护者甚至发起人纷纷离开,父母和爱人都离开了,InfiniBand显得身单力薄...然而这不是它的结局,此时PCI-Express,即PCIE出现了,几乎就是InfiniBand的翻版,其主要发力点依然是机箱内部,当然也可以有延展到箱外的传输介质标准。这让InfiniBand完全成了一个殉道者。就像基督之于基督教一样。
       后来直到如今,InfiniBand的思想被很多新技术吸取了,比如使用TCP/IP来进行远程内存访问,即RDMA,当然它的协议栈是固化在专用硬件上的。如今,单独的服务器机箱已经显得很拥挤不堪了,超猛服务器搞虚拟化的另一面就是多个服务器当一台用,而InfiniBand的思想在当时那个年代,过于早熟了...
       为InfiniBand而流泪。但是且慢,它还没有完全消失,也许能等到它升华蜕变的那一天,这是值得期待的。

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-08-04 15:25:57

为InfiniBand而哭泣的相关文章

学会拒绝摔倒“哭泣”,拒绝接受老师“溺爱”

======================================== 学习的核心是养成好的学习习惯,培养自己的学习能力!提升自己的运维思想! 这些才是学习时,你要获取的真谛,其次才是学到的知识! 学会拒绝摔倒"哭泣",拒绝接受老师"溺爱". --------你们的老男孩老师 为在线直播班2期的答疑 22:30 2016/6/2 ======================================== 老男孩的linux课程迄今为止绝对是全球最牛逼

Exadata中Infiniband交换机升级

Infiniband交换机的软件补丁包,随着软件版本的不同,其发布方式也有所变化,从如下图表可以看出,1.3.3-2这个版本是一个分水岭,这个版本及以前的版本,补丁包是单独下载的,而之后的版本,infiniband的升级包跟随着存储节点的补丁包一起发布. 图 Infiniband交换机的软件补丁包 1.3.3-2版本之前 注意: 1.1.3.3-2及之前的版本,升级方法基本一样,但不同的版本对应的升级包也不同. 2.有些升级包是不允许跨版本升级的.例如:如果想将36口的Infiniband交换机

Infiniband基本知识

InfiniBand架构是一种支持多并发链接的“转换线缆”技术,在这种技术中,每种链接都可以达到2.5 Gbps的运行速度.这种架构在一个链接的时候速度是500 MB/秒,四个链接的时候速度是2 GB/秒,12个链接的时候速度可以达到6 GB /秒. 1                基本特征 InfiniBand技术不是用于一般网络连接的,它的主要设计目的是针对服务器端的连接问题的.因此,InfiniBand技术将会被应用于服务器与服务器(比如复制,分布式工作等),服务器和存储设备(比如SAN

Infiniband驱动安装-RHEL5.8

1      下载驱动 地址:http://www.mellanox.com/page/products_dyn?product_family=26&mtag=linux_sw_drivers 根据操作系统版本进行驱动选择,建议使用ISO格式驱动包. 备注:RHEL5及以前版本选择1.5.3系列驱动,RHEL6及以后版本选择2.0及以上系列驱动. 2      驱动安装 2.1  将下载好的驱动传到服务器上,挂载到/public/ofed目录. [[email protected] source

《网络流学习笔记04 && NYOJ 489 哭泣天使(建边,超级源点和汇点)》

链接:click here 题意描述: 哭泣天使 时间限制:1000 ms  |  内存限制:65535 KB 难度:5 描述 Doctor Who乘着Tardis带着Amy来到了一个星球,一开Tadis大门,发现这个星球上有个壮观的石像群,全是一些天使石像,有的石像在哭泣,有的石像像在微笑,共有m行n列,Doctor用"音速起子"扫描了一下整个石像群,得到了每行天使中在哭泣的天使的个数.当他与Amy在这里行走了一段时间之后,Doctor忽然想起了什么,怀疑这些石像是不是传说中的一种黑

Infiniband

InfiniBand架构是一种支持多并发链接的"转换线缆"技术,在这种技术中,每种链接都可以达到2.5 Gbps的运行速度.这种架构在一个链接的时候速度是500 MB/秒,四个链接的时候速度是2 GB/秒,12个链接的时候速度可以达到6 GB /秒. InfiniBand技术不是用于一般网络连接的,它的主要设 InfiniBand(20张) 计目的是针对服务器端的连接问题的.因此,InfiniBand技术将会被应用于服务器与服务器(比如复制,分布式工作等),服务器和存储设备(比如SAN

SuSE11sp2 InfiniBand驱动安装

近期要测试Intel QLogic QLE7340 40Gb网卡设备及Mellanox ConnectX VPI MT26428 40Gb设备的带宽及延迟.主要测试设备在不同数据包下的TCP.UDP及SDP带宽与延迟.下面介绍如和安装驱动及使用qperf测试工具进行一些基本的测试. 一.安装依赖包 这些安装包位于SUSE11sp2的第二章光盘上,以下是一些依赖包 [[email protected] ~] # zypper install -y libstdc++46-devel [[email

centos infiniband网卡安装配置

硬件:Mellanox InfiniBand,主要包括 HCA(主机通道适配器)和交换机两部分 软件:CentOS 6.4 MLNX_OFED_LINUX-2.1-1.0.0-rhel6.4-x86_64.iso(从 http://www.mellanox.com/ 下载) 以用户名 root 登录系统 1.检查主机是否安装了 HCA: lspci -v | grep Mellanox 2.挂载 MLNX_OFED_LINUX-2.1-1.0.0-rhel6.4-x86_64.isomount

年轻情侣吵架后跳河溺亡 家长赶到后抱头哭泣

https://code.google.com/p/yanui/issues/detail?id=1 https://code.google.com/p/yanui/issues/detail?id=2 https://code.google.com/p/yanui/issues/detail?id=3 https://code.google.com/p/yanui/issues/detail?id=4 https://code.google.com/p/yanui/issues/detail?