你必须了解的存储网络基础架构技术趋势

对于希望进行数据中心整合和服务器虚拟化的企业IT部门而言,在规划各类基础架构相关的升级中,应当权衡一下是否需要部署最新的存储网络技术。

以下是对于目前数据中心中,光纤、以太网、光纤通道以太网以及InfiniBand数据存储网络基础架构发展情况的一个简介:

光纤通道

在长期光纤通道技术的路线图中提及了64Gbps速率,而在去年也确实已经有采用32Gbps和16Gbps速率的产品开始发售。不过分析师表示IT组织很可能在最近两年的交换机和光纤通道卡采购中仍采用8Gbps的产品。

位于加利福尼亚雷德伍德城的Dell‘Oro集团公司表示8Gbps的光纤交换机占到了2011年整体发售产品中的89%.调查公司表示8Gbps的光纤交换机产品在今年的发售中仍将占据77%的市场份额。根据Dell’Oro的调查,到2013年,随着16Gbps技术的溢价趋于平稳,8Gbps和 16Gbps将各自分别占领市场的50%.

不过这并不意味着IT部门应当快速地淘汰其陈旧的交换机和适配器。根据最近的 TechTarget存储采购意向调查报告,各类的光纤通道技术(从1Gbps到16Gbps)目前都在使用,并且4Gbps仍是最为流行的。用户只有在采购全新的基础架构时才会倾向于选择最快速的产品,因为那时他们陈旧的设备已经要报废,而最新的光纤通道技术的成本和之前一代的产品没有太大的区别。有很多用户因此跳过了一代产品,比如伦敦安大略湖的西部大学(原西安大略大学)直接从2Gbps升级到了8Gbps的光纤通道产品。

虽然已经有相应的16Gbps光纤通道产品可以应对高负载的虚拟化环境,大并发的数据库交易,以及刀片服务器和固态存储应用,不过IT部门在处理其今天所拥有的带宽时仍处于困境之中。

“情况并不像你想象那样,你很少会看到有数据中心会消耗完所有的8Gbps带宽,然后需要升级到16Gbps” Gartner存储技术调研总监Gene Ruth说,“相反,困境是有带宽而找不到相应的应用。”

位于瑞士巴塞尔弗雷德里克米歇尔生物医学研究所(FMI)的信息官Dean Flanders表示公司使用了大约25%的8Gbps光纤通道资源,并且往往是“突发性”的。FMI在每台服务器上运行大约60台虚拟机,通过2条 8Gbps交换机间链路组成,为每两个数据中心提供总共16Gbps的吞吐量。

“当时的建设中保留了太多的余量,”Flanders在一封email中写道。

Kemper Porter是密西西比州IT服务部门数据服务组的系统经理,其表示该团体应用2条8Gbps的光纤通道作为每台服务器和多通道驱动器,总速率达到 16Gbps.不过他在一些服务器上看到即便是峰值时刻也只是用了3Gbps的资源。该部门使用光纤通道主要为了解决虚拟服务器的需要。

Brocade通讯系统公司数据中心的SAN产品市场组经理Scott Shimomura宣称,金融、医疗和娱乐行业将会需要更多的带宽。Brocade在去年5月开始发售16Gbps产品,并且宣布在2011年第四季度的光纤销售中27%的都是16Gbps产品。

而Cisco系统公司则拒绝透露其增加对16Gbps产品支持的详细计划。Emulex公司在去年增加了对16Gbps适配器的支持,而Qlogic公司表示其正在进行OEM设计品质保证。

以太网

最领先的40 Gigabit以太网(GbE)和100GbE产品开始进入存储市场,不过绝大多数IT部门正在致力于使用全新的线缆、适配器和交换机升级至10GbE,即便在重新设计的存储网络基础架构中亦是如此。“我们正在从1Gigabit升级到10Gigabit,” Taneja集团的创始人和分析师Arun Taneja说,“不过和任何这类迁移一样,这较之于你在八九年之前听到的各类预期要迟缓很多。”

ESG调查公司揭示了从Gigabit以太网到10GbE迁移的最主要原因,即服务器虚拟化。随着IT部门逐步使用Intel最新的E5-2600志强处理器,其在每台服务器上可以运行更多的虚拟机,这样就要求更大的带宽,ESG 资深分析师Bob Laliberte说。

“许多企业在未来几年内计划在每台物理服务器上运行25个以上的虚拟机,”他说,“这样就要求有更大的吞吐量来处理这些虚拟机所产生的事务传输。”

Stuart Miniman是位于马尔堡的社区调查分析机构Wikibon的首席分析师,其预期在下一代机架和塔式服务器中将更多地集成10GbE技术。在过去的几年中,10GbE主要用在刀片服务器中,他说。

IT部门有多种途径来采用10GbE适配器,其中包括网络接口卡(NIC)、融合网络适配器(CNA,可以用以去除TCP协议)、母板集成 (LOM)的本地局域网(LAN)、母板集成的CNA以及刀片服务器中的嵌入式CNA.Cisco是领先的10GbE交换机供应商,其在一月宣布支持 40GbE和 100GbE.

以太网光纤通道

伴随着标准化工作的完成,阻碍以太网光纤通道发展的最大限制得以解决。IT部门今天可以部署无损的端到端10GbE和以太网光纤技术,从服务器到存储,即使在网络核心中也可以使用多跳的,交换机到交换机的FCoE技术。

不过根据行业分析师的观点,实际上绝大多数的应用环境仍只是在服务器和机架顶端的交换机之间使用FCoE.机架顶端的交换机分割了IP/LAN通讯以及FC/SAN通讯,而存储方面的传输仍通过光纤协议到核心交换机和存储阵列。

Dell‘Oro预测FCoE交换机端口数的出货在今年将以139%的速度增长,并且营业额的增长将达到110%,从437.3百万美金到 919.6百万美金。市场调研机构同时预测在2013年将会有74%的营业额增长以及78%的交换机端口出货。在这两年中,固定配置的交换机(包含机架顶 端的刀片服务器中内置的)相较于模块化机架以及导向器级别的交换机,将占据绝大部分。

“FCoE随着10Gbps技术的普及而发展,”Wikibon的Miniman说,“FCoE并不会挤占其他技术的市场,而是获取稳定地增长。”

主流的交换机供应商自2009年开始在光纤交换机中支持FCoE技术,不过去年Cisco在MDS9500系列多层导向器(8端口模式)和 Nexus7000(32端口模式)中推出了多跳的,交换机到交换机的功能以及对FCoE的支持。同样在去年,Brocade在其固定端口的VDX交换机中推出多跳的FCoE,不过其还没有开始在模块化的导向器级别的交换机中支持多跳的FCoE技术。

CNA的发货有多种形式,包括适配卡、刀片服务器的中间板以及母板上集成的LAN(cLOM)。

Gartner的Ruth说这一市场将保持停滞,直至诸如EMC和NetApp之类的存储厂商在其系统中推出更为全面的FCoE功能。

FMI的Flanders说FCoE看上去非常有意思,不过经过了大规模的评估,其认为该技术相较于目前的FC SAN没有更为明显的优势。FMI同样使用iSCSI技术超过五年,不过Flanders计划逐步取消这种技术,因为其在性能和可靠性方面较光纤通道技术相去甚远。

“其并没有如预期般产生巨大的市场拉动力,”Taneja集团的Taneja谈及FCoE时说,“获取这只是存储专业人士保守的心态所致。FCoE或许更适合于那些需要统一信道的全新项目。”

ESG的Laliberte则关注VMware对FCoE的认证是否会带动更大的需求产生,他认为这是一个里程碑,证明了网络附加存储(NAS)和iSCSI融合的趋势。VMware在2010之前都只支持光纤存储,他说。

InfiniBand

低延迟的InfiniBand仍主要用于服务器和服务器之间的互联,尤其是在高性能计算(HPC)和金融交易应用之中。不过该技术也开始应用于后端存储上。

Brian Sparks是Mellanox技术公司的资深市场总监,其宣称远程直接内存访问(RDMA)技术逐步在存储中开始采用,该技术允许无须处理器干预的服务 器和服务器之间的数据直接迁移。根据Sparks的观点,使用 InfiniBand的数据存储供应商已经有DataDirect网络公司,EMC(Isilon产品线),IBM(XIV产品 线),NetApp(LSI的Engenio产品线)以及Oracle公司的(ZFS、Exadata、Exalogic和Exalytics产品线)。

Mellanox是领先的InfiniBand供应商在去年开始支持14数据比率(FDR)56Gbps的InfiniBand适配器、交换机和线缆,Sparks说。

之前第二大InfiniBand交换机供应商QLogic在今年早期将其TrueScale InfiniBand产品线卖给了Intel公司。Qlogic将其解释为公司希望致力于融合网络、企业级以太网以及SAN产品;而Intel则将此表现为其对HPC社区的承诺,以及全光纤架构的愿景,希望以此在2018年达到每秒1018的运算速率。