数据中心成本之辨:捂紧企业“钱袋子”

数据中心现在处于在发展的“高速公路”上,作为企业整个IT系统的大型基础设施建设,数据中心的作用不言而喻,不论是以云数据中心为主要发展模式的大型数据中心还是中小型数据中心,成本永远是不可回避的话题。

云计算数据中心摆脱选址、耗电压力

当企业发展到一定阶段,其数据中心规模开始向大型化转变,而随着城市土地资源的紧缺所带来建设成本的大幅度提高,在加上电能的惊人消耗,大型数据中心的发展建设面临巨大压力。

而随着云数据中心的出现,在一定程度上减轻了选址对数据中心的束缚。因为云数据中心对地理位置并没有特殊的需要,首先,云数据中心的数据是以光速传输的,这就带来了很大的便利,因为只要保证云数据中心中主设备定期进行检查,保持其稳定性,就可以正常工作。其次虽然云数据中心面积庞大,功率能高达几十兆瓦,但云数据中心的温控设计非常简单,因为没有配备过多的冷却设施,室外冷却占到90%的时间甚至更多。最后,在电力供应方面,云数据中心一般采取中级或传输级电压,这样能更好的满足大型数据中心的电力需求。也不必担心电力成本以及位置不变带来的负面影响。

所以,云数据中心往往会选址在一些寒冷的地方来取得电力成本上的优势,一些纬度高的地区受到了青睐,比如北欧、北美地区,因为在这些地区,企业至少不用担心IDC的冷却问题。但是设计团队需要仔细地根据当地特殊的环境条件和电力成本来为数据中心量身打造出一套方案,才能最大限度的减少每兆瓦的建筑成本以及后续运营成本。

由此可见,随着云数据中心的发展在一定程度上帮助企业摆脱选址难的问题,也使数据中心在电力耗能方面不再一筹莫展,虽然云数据中心前期投资巨大,但是其节能效果立竿见影,可以说到目前为止,云数据中心是可预见到超大型IDC发展主要模式和发展方向。

传统数据中心UPS、空调仍是耗能大户

传统数据中心一般以中小型数据中心为主,在建设和运行过程中,其电能的消耗就成为其成本浪费的大户,据统计,电信运营商的电力消耗约占公司总体消耗的87%,87%的电力消耗中有73%左右消耗在IDC的UPS和空调上。

但是中小型数据中心就不能像“云”数据中心一样利用天然的气候优势来保持设备的正常温度,而且从现实的角度来说,“云”数据中心还仅限于巨头企业的主要选择模式。对于电能的节约还是主要依靠新技术和新设备的应用来解决问题。

一方面,合理布局IDC空间可以提高机房制冷系统的工作效率。机柜的合理摆放能够最大限度地提高空调的冷却效率,减少空调的耗电量。冷、热空气混杂是机房中常见的现象,有时空调提供的冷气还没有进入机柜就已经变热了。因此制冷系统效率提高的关键在于对冷热空气进行有效区分,这样才能保证机柜内部IT设备能够在正常的温度下工作,让制冷的效果更加良好。

另一方面,为保障IDC的电力供应,现在IDC都会安装UPS系统。从用电分配比例中可以发现,供电系统本身的耗电占15%。也就是说,UPS利用率的高低也直接影响到IDC耗电量的多少。大多数IDC管理工作人员认为,UPS系统安装后只是起到断电保护的作用。但实际上,UPS系统也会耗电,而这部分损耗是完全没有必要的。目前UPS均为在线式双变换构架,在其工作时整流器、逆变器均存在功率损耗。提高UPS的工作效率,就可降低供电系统的耗电量,可以为机房节省一大笔电费。因此,采购UPS时要尽量采购效率较高的UPS。

技术新知

DCIM保证IDC全生命周期

目前,DCIM成为建设绿色数据中心的一种新标准。

Gartner的报告称,DCIM已经被证明能够降低20%的运营成本。其他研究机构数据也表明,DCIM解决方案可将部署新服务器的时间最高缩短50%、并且能延长数据中心寿命5年,到2014年,DCIM工具和流程将成为数据中心管理的主流趋势,市场渗透将从 2010年的1%上升至60%。为了能够利用DCIM发展带来的优势,业内在基础设施及运营(I&O)方面领先的企业应在2010年和2011年启动DCIM评估流程。

DCIM(Data Center Infrastructure Management)其实就是数据中心基础设施管理,但是DCIM到底如何实现帮助IDC节约成本。简单的说随着企业IDC的不断发展进步,其主设备和辅助设备都可能会更换、位置的调整,以便达到更加节能的状态,因为当数据中心的容量和耗电都接近最大负载的时候,有效的进行资产重组是企业最后能做的事情。

这时DCIM的作用就开始显现,DCIM会随着整个业务的调整,帮助企业服务器、制冷、机柜根据应用进行动态的部署和调整。因为DCIM中相关的解决方案可以直观地显示数据中心所有物理资产和逻辑资产的完整清单,表明机柜和数据中心的场地位置和机柜热负载。数据中心的管理人员利用这种软件,就能在实施任何可能严重影响数据中心性能变化的措施之前,建立复杂的假设场景,利用模型来模拟任何移动、添加或变化。并且通过检查基础架构装置,例如楼层PDU和分支电路板、UPS与机房空调装置,管理员不必在通过手绘的方式来勾画实体关系对应图,这是因为所有的设备包括电源等基础设施都与网络链结,而这些数据全都储存于中央数据库中了。

DCIM这种更直观的表现出数据中心的运行状态,在出现问题之前及时发现问题,提出自己的解决方案,增加了设备的使用寿命,让各个设备都处于最合理的位置运行,而且不论是中小型数据中心还是超大型的“云”数据中心都可以运用DCIM来进行成本的节约。

优秀解决方案:施耐德电气StruxureWare运营套件(DCIM软件)具备包括报警、数据收集、规划、优化和分析在内的多种功能,从而能针对数据中心物理基础设施的方方面面生成报告。IT专业人员只需通过单一的软件套件即可获得其运营数据中心所需的所有数据和工具,从而让数据中心更加可靠、高效、经济、环保和安全。

他山之石

谷歌:将数据中心建在寒冷地区

在2010年谷歌原数据中心就消耗了2.26万亿瓦时的电量,这相当于20万美国家庭一年的耗电量,其中大部分电力消耗在了服务器的降温系统上。而寒冷的气候可以减少降温方面的开销,这无疑将是一个极具竞争力的优势。

为此2011年,谷歌斥资2亿欧元在芬兰开始打造属于自己的数据中心,谷歌在最新的能源之星数据报告中指出,其它公司数据中心使用的PUE值为2.0。而在2011年的一年里,谷歌将数据中心PUE平均值压榨到了1.14,低于2010年的 1.16,已经接近竞争对手的50%。

英特尔:冷却技术省巨资

英特尔利用自然冷却的方法,把耗电量减少了74%。英特尔的试验是将两辆塞满服务器的拖车连续使用10个月,其中一个使用传统的冷却装置,另一个结合使用冷却装置和过滤掉粗颗粒杂质的室外空气。自然冷却的拖车在91%的时间能够完全使用室外空气冷却。

如果将其推广到耗电量为10兆瓦的数据中心,这相当于每年可省下近300万美元的冷却成本,还能少用7600万加仑的水,而水在一些地方本身就是一种昂贵的商品。