数据中心网络变革因云而起

云计算基础设施的关键技术包括服务器、网络、存储和数据中心的其他相关技术。近几年服务器、存储等部分都取得了很多的改进,比如服务器计算到虚拟计算,虚拟存储的演进等。反观数据中心网络的发展,却略显力不从心。但这样的力不从心正在得到本质上的改善。

云抽象化的可以看做一个庞大的网络系统,在云内包含上千甚至是上万台服务器,而虚拟化技术的普遍应用使得实际网络节点的数量更加的巨大,所以用于连接云数据中心内部和云数据中心间网络成为实现计算和存储能力的关键环节。因为企业在迈进云计算的过程中,选择服务器虚拟化以提升效率、解放CPU,释放各种计算资源,除了在CPU和芯片组提高虚拟机的运行效率,同时通过解决整体基础架构的连接性问题,来处理虚拟机间的通信,这也正是数据中心网络的价值所在。

数据中心网络是云计算的核心吗?

那么,你可能会问,云计算基础架构中网络到底是不是核心呢?说到底这要看站在哪个设备商的角度去看了。但数据中心网络之所以面临变革,还是云计算所导致的。

直到今天云计算也依然是不断进化中的概念,但云描述了一个由资源池化的计算、网络、存储等组成的服务、应用和基础设施使用的面貌,同时激发出了IT基础设施协作、敏捷、扩展性、可用性,以及通过优化、更有效率的计算来降低成本的潜能。让资源按需索取,弹性的供应,像用电一样方便。尽管云太过理想化,但这并不影响企业趋之若鹜。可喜的是云计算的最佳实践已经离我们越来越近。

根据最近IDC发布的中国云计算市场的研究报告显示,2011年中国用户为建设云计算基础架构的投资已经达到2.86亿美元,同比增长42.0%。IDC预计,中国云计算基础架构市场还将保持高速发展,到2016年其规模将超过10亿美元。IDC注意到最终用户在对私有云计算基础架构的建设方面发展迅速。越来越多的大中型企业正在建设或考虑建设私有云计算平台,从而提高IT基础架构的效率,以更好的支持业务发展。云计算基础架构已成为中国大中型企业下一代数据中心(NGDC)建设的主要目标。

众所周知,云计算的概念最早是由Google提出的,搜索引擎需要数据中心内部大量的服务器来进行统一计算来支撑关键词的搜索,导致数据中心内部,也就是服务器之间的流量交互增多,这就给数据中心网络内部的通信提出了更高的带宽和更低延迟的要求,这就是为什么高端的数据中心网络交换设备会首先被互联网服务提供商所考虑。此外,为了提升服务器的使用效率,虚拟化技术切断了应用、操作系统与物理硬件的直接联系,将更多的应用负荷加载到更少的服务器上,于是不仅仅在虚拟机的通信上给网络带来的变化,对服务器硬件能力的极限使用,也给网络的带宽提升提出了新的要求。当然还包括虚拟机的动态迁移,也给网络管理维护带来了困扰。

总结以上小节,数据中心网络是不是云计算数据中心关键环节,仁者见仁,要看你所站的角度对待。企业如果要获得云计算所带来的价值和效益,那么数据中心网络必须要提供提升带宽和降低延迟的能力,处理好虚拟机通信的管理问题,能够适应未来服务器虚拟机规模的增加。

数据中心网络不得不面对的问题

那么数据中心网络要具备支撑云计算最佳实践的能力,就需要解决计算、存储、数据网络融合,数据中心内部东西向(服务器与服务器之间)流量的承载以及虚拟机流量的接入与控制等问题。这三个方面是数据中心网络迈进云计算过程中,业界已经基本达成的共识,虽然在一些技术标准确定,以及产品的大规模商用方面还存在许多争议,但这并不影响厂商通过开放或私有的技术标准来实现和解决这些问题。

先来看看网络与存储的融合,传统的数据中心中存在三张网,数据中心的前端访问接口通常采用以太网进行互联而成,构成了一张高速运转的数据网络。数据中心后端的存储更多的是采用NAS、FC SAN,服务器的并行计算则大多采用Infiniband和以太网,多张网络的并存提高了建设和运行管理的成本,为了适应云计算成本的需要,网络的三网融合就成为了必然趋势。在数据中心网络融合方面相关的技术标准,厂商也业界也基本达成了共识,比如确定的40G/100G技术标准,FCoE以太网光纤通道协议和DCB数据中心桥接(Data Center Bridging),虽然这些重要的网络融合标准和协议已经被广泛的使用在现有的产品中,但产品的成熟和大规模商用,市场还要等待一段时间。

在数据中心内部横向流量的承载方面。数据中心网络中原本分为三层:核心层,汇聚层和接入层,万兆及以上的以太网交换机有较高的无阻塞吞吐量,允许用户把服务器机架和柜顶式交换机直接连接到核心网络,从而不再需要汇聚层。再者在云计算数据中心中,出于虚拟机热迁移的需求,如果汇聚层仍然采用二层网络组网,二层网络的规模将大大增加,原有的STP生成树协议将造成网络链路的大量浪费,这就是为什么传统的三层网络一直运行良好,但在今天面临服务器整合、虚拟机时则显得有些过时的原因。根据这样的需求,主流的网络设备厂商都提出了针对大规模二层组网的方案。两大标准组织IETF和IEEE分别提出了TRILL和SPB标准技术,主流的网络厂商,也根据自身技术的发展路线加入了不同的阵营,以推动相关标准的制定和商业化进程。而它们的总体思路相近,即通过对IS-IS协议的拓展,在二层转发中进入路由技术,实现对网络链路的有效利用,以简化网络,支持虚拟机的移动性,降低运营成本。目前大二层网络技术标准的博弈逐渐明朗,业界已经对通过 TRILL标准实现大二层组网逐渐达成了共识。

最后,我们一起看看虚拟机流量的接入与控制的问题。由于虚拟机的引入,虚拟机间流量的交换深入到了网卡内部进行,使得原来服务器与网络设备之间清晰的网络界限被打破,于是在数据中心的服务器的网络接入层出现了新的虚拟网络桥接层,通过软件的VSwitch实现。虽然实现简单,但其占用CPU资源导致了一系列的问题;此外也可以借助SR-IOV特性的网络来实现硬件的虚拟网络桥接,CPU开销得到了改善,但虚拟机的流量管理等问题仍然存在。于是争论又来了,针对虚拟网络交换出现出现了众多的技术体系,有的目前仍然在不断的进化过程中,但有的已经被叫停,它们包括 802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag。目前802.1Qbg标准已经获得了主流厂商的支持,并可提供基于草案标准的解决方案,802.1Qbh目前已被叫停,802.1BR处于起步阶段,思科VN-Tag是其私有的技术标准。

数据中心网络变革异彩纷呈

数据中心网络是实现云基础设施的关键环节,目前针对数据中心网络的演进,以思科、华为、瞻博网络等为主的网络设备供应商,都提出了针对大二层网络、融合、虚拟网络桥接的架构和解决方案,不管是思科的Fabricpath,华为的Cloud Fabric,还是瞻博的Qfabric都瞄准了如何在企业迈进云计算的进程中,让企业最快最平稳的实现数据中心网络的过度,并将企业云计算基础架构的效率最大化,并显著降低TCO,并使用到云计算所带来的灵活、弹性、按需服务的业务模式,从而在未来的商业化发展中游刃有余。

目前思科的数据中心网络已经发展到3.0阶段,整体基于其全新定义的云享战略的统一数据中心部分,强调融合、可拓展性和智能;华为在2012年正式开启了它的数据中心网络产品解决方案和架构理念的全球之旅,Cloud Fabric解决方案遵循实现数据中心网络弹性扩展,简单易用和灵活开放的核心价值,特别是在性能方面更是高举高打,开启了数据中心网络产品T级的先河; 瞻博网络的QFabric在2011年提出,它的最大亮点就是在大二层网络实现上的突破,主要特征是简化、共享、安全和自动化。当然并不仅仅是这些,H3C的云就绪网络、博科的VCS等技术体系和产品也是数据中心网络最有力的竞争者。

在许多技术标准角力,厂商技术产品逐渐趋于成熟,企业在尽力找寻基础架构调整优化和成熟业务模式契合的最佳方法的当下,一场满足云计算模式的数据中心网络变革的剧情异彩纷呈。