数据中心绿色节能办法:冰球治理法(上)

DoSERV服务器在线2010年10月18日 国际报道:当我们领略菲尼克斯市炎热而干燥的沙漠气候时,绿色通常不是映入我们脑海的第一种颜色,毕竟菲尼克斯最近的最高温度达到了109华氏度。但是I/O Data Center却真的在这里建造了一座占地18万平方英尺的商用数据中心,汇集了各种采用创新环保技术设计的高能效设备。这些创新设计从服务器机架到不同寻常的空气制冷系统无不涉及。

绿色IT:一项重要的行业实践

然后就要说到冰球了–这种比垒球大不了多少的充满冷水的塑料球体–I/O公司正在用这种物体来填充空调制冷系统。来自圣地亚哥Cryogel公司的冰球热存储系统估计是I/O公司使用的最酷的技术。

在I/O公司菲尼克斯数据中心的设备里,冰球漂浮在充满乙二醇溶液的四个巨型大桶中,可以将温度冷却到22度。这种溶液从数百个冰球周围的制冷器中抽出来,在晚间用电低谷时段对溶液进行冷冻。白天,系统再通过热交换器将乙二醇溶液注入到冰球周围,为数据中心提供冷空气。这样能减少白天用电高峰时段运行制冷器的需求。

这种系统并不能节约任何能源–最多是个零和游戏–但是它能省钱。通过将用电从白天转移到夜间,I/O公司每千瓦大概能节约1250美元,Cryogel公司总裁维克托.奥特这样说道(I/O公司并没有对系统能节约多少金钱做出估算)。

奥特宣称这项技术要更加的环保,因为为了满足需求,效用发电机在白天的高峰时段要运行更加繁重的工作,产生更多的温室气体。奥特表示"这些系统在夜间为了发电所消耗的燃料要比白天少得多。夜间空间也要更加凉爽,这样效用发电机运行起来就更加高效"。

不过后面这段声明在惠普公司关键设备服务事业部副总裁兼总经理彼得.克鲁斯眼里可能有点言过其词(惠普公司关键设备服务事业部负责设计数据中心,但是他们并没有介入I/O菲尼克斯数据中心设备的设计和构建)。

为什么选择菲尼克斯?

I/O公司菲尼克斯数据中心等所有的项目阶段都完全构建完成,要满足制冷需要最高需要消耗40兆瓦的电力,那么为什么要选择菲尼克斯这样的沙漠城市来建造数据中心呢?负责设计大型数据中心的Megawatt Consulting公司总裁兼首席能效官KC.马尔表示"有大量用户都数据中心市场向菲尼克斯转移。选择这里会有一些合理的原因。但是我是从能源使用总量的角度来提出这种疑问的"。

I/O公司副总裁詹森.费雷声明说"外部的温度与内部的运转毫无关联"。举例来说,干燥的沙漠气候的一个好处是,它本身就是能效蒸发冷却技术。

但是对于节约装置和蒸汽制冷器这样的制冷技术所能做的就存在限制了,这些制冷技术在这种夏天温度可以达到120华氏度甚至更高的环境中就需要依赖外部的空气了。在一天结束时,尽管使用这种节能技术,你仍然需要为基础架构制冷花费大量的金钱。

不过I/O公司的用户BMC软件公司最初并没有选择使用I/O菲尼克斯数据中心设备,因为他们开始对绿色技术比较感兴趣。位于休斯顿的BMC公司IT基础架构和全球运作副总裁Mahendra Durai表示,选择菲尼克斯一个非常关键的原因是:由于最近发生的飓风,管理部门希望将公司的初级业务系统从休斯顿迁移出去。

Durai表示"菲尼克斯是美国少数几个极小会受自然灾害影响的区域之一。BMC公司的计划需要得到检验的五星级领域和大量可以扩展他们目前配置的空间。I/O菲尼克斯数据中心对环保的关注是令人满意的,但是目前仅在他们优先考虑的选择中排名第四。

使用Cryogel公司冰球构建的热存储系统每吨小时的制冷费用约为60美元,三到五年的时间里就能得到投资回报。这对于一些企业来说可能太长,但是投资回报率不是大部分数据中心判断使用何种技术的首要原因。

但这么做最大的障碍是需要需要巨大的容器来将冰球安置在正确的溶液里–即可以是压力舱,也可以是大气桶。这就需要占用大量的空间,这对于大部分数据中心都是个问题。

举例来说,在I/O公司里,Cryogel公司的冰球热存储系统需要四个钢制的压力舱,每个压力舱的尺寸为直径10英尺,高度22英尺。I/O公司有大量的空间来作为制冷设备的容身之地,但是多数数据中心都没有这种空间。奥德表示"通常对大量空间的需求已经超过了对价格的质疑"。

克鲁斯表示,如果空间不是问题的话,他青睐使用热存储技术"冰存储是个奇异的想法。它使得电力需求曲线变得平缓并节约了不少钱"。

但是数据中心使用热存储系统比较稀少的另一个原因是:对可靠性的担忧。

延伸阅读:《数据中心绿色节能办法:冰球治理法(下)