创新来自小供应商
对于InfiniBand这个正在发展的技术来说,2003年将会是最关键的一年。这个被过多吹捧的高速内部连接技术在过去曾经有相当长的一段时间被人所冷淡:在去年的早些时候,英特尔与微软这两个InfiniBand行业协会的创办成员,先后停止了在InfiniBand上的继续发展,但一些小的InfiniBand技术供应商却于最近开始了针对企业级用户的产品研发。其中,Mellanox公司、JNI公司、Topspin公司以及Paceline公司等就是其中的佼佼者。
一个关于InfiniBand产品的首次展示跨越了2003年。而InfiniBand的利好消息发生在去年年底:戴尔、IBM以及Sun这三家顶级的服务器供应商宣布,他们将在未来的两年时间内在各自旗下的产品中启用InfiniBand技术。作为这一行动的响应,工业分析家认为,在大的服务器厂商全面支持InfiniBand技术以前,该技术不会得到发展,但现在却可能深入到企业的应用中去。
InfiniBand技术是一种基于通道的、采用交换结构的I/O体系,最初是期望它能够代替其它种类的内部连接技术,例如PCI。但是当InfiniBand发展到10Gbps的速率时,这种新技术遇到了一个困难:公司紧缩的IT预算需要与其目前的基础架构相适应,用户不会将更多的资金用于采购新型的技术而大范围升级现有的系统。相对而言,在现阶段,例如PCI-X以及万兆以太网技术这样的连接技术更适合现有的系统。并且,例如光纤和iSCSI技术等用于连接存储设备与服务器之间的I/O技术,它们的性能看上去也能够继续提高。
创新来自小供应商
目前,在InfiniBand技术上的革新基本上都是通过小型供应商所大量生产的产品来推进的,而这其中的大多数产品都是用于制造大的供应商的InfiniBand就绪的产品。位于美国麻省的InfiniSwitch公司是一家为已启用了InfiniBand技术的设备制造高速InfiniBand交换机的公司。在今年上半年,该公司将发布可用的通用型端节点设备(Leaf)以及控制器产品。其中,端节点设备瞄准的是低端市场,该设备能够允许用户为他们的数据中心中的两台12端口的刀片服务器或者24个交换机带来InfiniBand连接。控制器目前可以支持1倍速(2.5Gbps)的数据传输速率,将来可以支持4倍速(或者说是10Gbps)。
同样位于麻省的Voltaire公司在今年第一季度将发布下一代的nVigor InfiniBand交换路由器。该公司的官员宣称,nVigor可以运行在4倍速。他们还表示,尽管该产品也会有一部分会直接销售给最终的企业用户,但公司的主要目标仍旧是OEM厂商。
根据InfiniCon公司的产品发展路线图,他们将升级旗下共享I/O系统的InfiniIO 7000产品。该产品发布于去年9月,允许数据中心将InfiniBand技术与光纤、以太网技术集成为一个整体。该公司的CEOCEO Chuck Foley说,在2004年的第一个季度,InfiniCon公司将把InfiniIO高端产品在底盘上的光纤通道的端口数量从16个增加到32个;而以太网端口的数量则会从3个增加到8个,而InfiniBand的端口数量将保持在60个。Foley还表示,他期望在2005年,该设备上的InfiniBand端口能够处理12速(30Gbps)的InfiniBand数据传输。
但是,在主要的服务器制造商公开宣布完全支持InfiniBand技术之前,该技术仍旧不能在IT业界中获得足够的共鸣。
主要服务器供应商表态
戴尔公司的发言人宣称,下一代的PowerEdge刀片服务器完全是InfiniBand就绪的产品,并且公司正在实验室中测试基于InfiniBand技术的集群。IBM在今年也将开始在其整个eServer服务器产品线上配置InfiniBand技术。IBM将在基于英特尔架构的eServer服务器产品线上的网络层采用InfiniBand技术进行网络数据包的交换,它包括主通道适配器、交换机以及光纤管理。同时,IBM的计划中也包括发展使用InfiniBand技术进行相互连接的通用集群。而Sun公司的发言人称,未来将在其交换机、存储以及服务器平台上统一采用Infiniband技术,甚至还包括将在2004年发布的下一代刀片服务器。
但是,惠普并不认为InfiniBand技术有更好的前景。在去年9月,惠普公司工业标准服务器部门的技术主任(CTO)Karl Warlker说,惠普更倾向于发展基于以太网技术的解决方案,该方案甚至能够进行远程的内存直接寻址,而InfiniBand技术在这方面无能为力。因此,惠普的工业标准服务器已经将InfiniBand排除在外了。Walker还说,其它的OEM厂商做出类似决定的部分原因是,他们没有看到围绕InfiniBand技术的生态系统是什么样的形式。
用户会选吗
主要服务器供应商对InfiniBand技术的不同态度,以及英特尔与微软对于InfiniBand技术的摇摆不定使部分用户在采用InfiniBand技术时变得犹豫起来。Hunting Bancshares公司的CIO Joe Gottron称,英特尔和微软在去年夏天宣布不打算在InfiniBand技术上继续投入,而现在却再次宣称支持这种内部连接,这使他感到迷惑。“为解决在数据中心的众多服务器之间进行数据传输时的数据延迟问题,高速的I/O技术是必须的,”他说:“但现在的情况迫使我处于观望状态。在市场的发展方向明确之前,我不会作出任何决定。”
无论如何,一个需要高性能计算的区域能够从InfiniBand技术中获得相当多的好处,它的低延迟和高带宽特性是非常重要的。例如,美国Los Alamos国家实验室就计划通过InfiniBand技术来连接128台服务器,用于创建超级计算环境。这128个节点将在今年1月投入运行,并一直测试运行到3月。
该实验室的技术负责人Mike Boorman说:“InfiniBand技术是充满吸引力的,因为该技术的相关成本并不高,而且它的延迟时间只有大约7微秒。与此相比,以太网技术的潜伏周期是10~20微秒。”
“InfiniBand技术在高速、低潜伏周期的内部连接中是很好的候选者。”Boorman还表示,“我为Los Alamos实验室中的InfiniBand设备增加了一些从Quadrics公司和Myricom公司获得的专利技术,我还将观察万兆以太网技术在今后的两年内的发展。”
InfiniBand是一种交换结构I/O技术,其设计思路是通过一套中心机构(中心InfiniBand交换机)在远程存贮器、网络以及服务器等设备之间建立一个单一的连接链路,并由中心InfiniBand交换机来指挥流量,它的结构设计得非常紧密,提高了系统的性能、可靠性和有效性,能缓解各硬件设备之间的数据流量拥塞。而这是许多共享总线式技术没有解决好的问题,例如这是基于PCI的机器最头疼的问题,甚至最新的PCI-X也存在这个问题,因为在共享总线环境中,设备之间的连接都必须通过指定的端口建立单独的链路。
InfiniBand的设计主要是围绕着点对点以及交换结构I/O技术,这样,从简单廉价的I/O设备到复杂的主机设备都能被堆叠的交换设备连接起来。如果带宽、距离等条件适宜,InfiniBand主要支持两种环境:模块对模块的计算机系统(支持I/O 模块附加插槽);在数据中心环境中的机箱对机箱的互连系统、外部存储系统和外部LAN/WAN访问设备。InfiniBand支持的带宽比现在主流的I/O载体(如SCSI、Fibre Channel、Ethernet)还要高。此外,由于使用IPv6的报头,InfiniBand还支持与传统Internet/Intranet设施的有效连接。用InfiniBand技术替代总线结构所带来的最重要的变化就是建立了一个灵活、高效的数据中心,省去了服务器复杂的I/O部分。