Facebook打造首个绿色节能数据中心

Facebook活跃用户数量在2011年已超过7.5亿,但是很难想象,Facebook却一直没有自己的数据中心。2010年1月,Facebook首个数据中心在俄勒冈州的普林维尔(Prineville)破土动工。

目前,很多美国大公司都把数据中心建在俄勒冈州,包括亚马逊和谷歌,尽管他们的总部不设在这里。俄勒冈州提供廉价的能源、气温较低,还为在此建立数据中心的公司提供税收优惠。

社交巨人在俄勒冈州普赖因维尔(Prineville)建造的新数据中心投资达2.1亿美元,数据中心第一期工程已于2011年建设完成,建设面积为30万平方英尺,如此庞大的数据中心,用电功率为28兆瓦,与同类数据中心相比并不显得突出。

Facebook首个数据中心

原因在于,Facebook采用一系列的节能措施,包括:

蒸发冷却系统:与传统的耗电巨大的冷却系统截然相反,Facebook数据中心通过蒸发水来降低进入数据中心的空气温度。该系统在能源使用上非常高效,并且通过外界的空气将水的消耗量减少到最低;

利用冷空气:该设备仅通过引入外界冷空气来降低室温。一年中60%到70%的时间均可使用。其他时间需要使用蒸发冷却系统来满足温度和湿度的需要;

回收再利用服务器热能:在寒冷的月份里,回收利用一部分计算机服务器产生的余热来温暖该设施内的办公空间;

专有的不间断电源技术:所有的数据中心必须拥有不间断电源,为服务器连续不断地提供电能。可以减少12%的耗电量,该系统正在申请专利中。

与普通数据中心相比,Facebook数据中心的能效高38%,建造成本低24%。超前的技术和对现有自然资源的有效利用造就了Facebook数据中心的九大特色:

1.高效节能的电路系统降低了电能损耗

该数据中心采用专用供电设备,可使用277V交流电源,而不是普通的208V电源,这使得电能进入建筑物后直接接入服务器,而无需从交流到直流的转换,从而避免了电能损耗。

2.服务器机箱简单、体积大

每台服务器的机箱都十分简单:没有螺丝、没有尖角,很容易更换里面的主板等元件。机箱体积比一般机箱大,能够容下更大的散热器和风扇,这意味着需要更少的外界空气用于降温。数据中心工作人员能够从机器前面的较为凉爽的通道进行布线,而不用站在温度高达100华氏度(约合37.8摄氏度)的机器后部进行操作。

3.主板被分拆成基础元件

服务器内部的英特尔和AMD主板被分拆成一些基本的必需部件,以节省成本。尽管看上去很复杂,但与一般主板相比刨除了许多用不上的功能。

4.服务器三个为一组

每个纵可存放30台服务器, 每个设备机架上共90台。

5.电池柜提供备用电源

每组服务器之间放置一套不间断电源(UPS),在断电时提供后备电源。

6.100%使用外部空气冷却,无需空调

通常冷却系统是数据中心最大成本之一,而Facebook数据中心100%使用外部空气进行冷却,无需空调,从而在很大程度上节省电能消耗。空气从 二楼的一组换气扇进入,通过过滤网,必要时还可经过“喷雾室”提高湿度。整个冷却系统都位于二楼,空气直接吹向服务器,无需风道。

7.高原沙漠气候适合建造数据中心

选址普林维尔前,Facebook考察了许多地点。普林维尔的高原沙漠地形意味着气候非常干燥,但又很少酷热。全年最高温度为105华氏度(约合40.56摄氏度),而Facebook数据中心可适应110华氏度(约合43.3度)的高温。

8.采用成本更高的蓝色LED灯

在灯光方面,Facebook并未吝啬,采用了蓝色LED灯。不但外观很酷,而且与Facebook的蓝色Logo也很般配。每只蓝色LED灯成本为0.07美元,而绿色LED灯只需0.02美元。

9.省钱、环保,有益于地球

通过上述种种优势,Facebook数据中心的电能使用效率(PUE)为1.073,意味着进入数据中心的电能实际上有93%被服务器利用,优于普通数据中心的该标准。更少的电能消耗意味着燃烧更少的燃料,这样也就无需因为整天玩FarmVille而感到内疚了。

数据中心所在的Crook郡,除Facebook之外的居民和企业用电为30兆瓦。换句话说,Facebook占了一半用电量。它还计划第二期和第三期工程,最终用电量可能将达到78兆瓦。

Crook郡经济发展官员表示,该地现有电力完全能支持单个耗电大户,他们可提供720兆瓦电力,并计划在明年增加76兆瓦,2014年再增加281兆瓦。