CIO:数据中心要减压 内部问题要明了

我们大多数人的习惯思维认为,先进的技术与更高的效率和复杂的配件相关,但大多数的情况却是反过来的。其中,IT产业和数据中心面临的最大的问题是:不断增加的能源需求和更多的冷却能力的要求。结果发现,整个美国超过1.5%的能源使用是用于数据中心的冷却。这似乎是一个很小的百分数,但统计学家会告诉你,这应当是一个引起人们关注的问题。

大多数大型企业数据中心的服务器运行的平均利用率只有10%至15%,大概5%的服务器在执行没有任何用处的功能。据McKinsey和UptimeInstitute的调查,数据中心的服务器,平均有三分之一不在使用。要正确看待这个问题,一个典型的数据中心每年运行的成本约150万美元,良好的设计可能使基线下降百分之二十,但要是通过基线找到200个过时的服务器,并把它们关闭,可能会节省得更多。这种类型的节约是一个双赢的局面,因为它不仅有利于经济效益,也有利于环境。

随着新一代数据中心的建设,网络、服务器、存储等基础设备进一步集中,这就对数据中心的基础环境提出了新的要求。整合和虚拟化数据中心的项目也变得越来越重要了,这样做能够帮助处理日益增长的能源问题。这些数据中心在倡议减少浪费;公司也开始把节约成本看作一件实事。在最近的由艾默生网络能源公司(EmersonNetworkPower)的Aperture研究所(ApertureResearchInstitute)进行的调查中,80%受访的数据中心经理都表示,他们有信心,他们可以通过更好地管理和利用现有的IT资产,至少可以创造额外的10%的容量。30%的人回答时表示,他们可以找到额外20%的能力。通过在合适的地方适当的工具,公司可以保持其数据中心精简、适合和绿色。

但什么是必要的工具来进行数据中心的迁移、合并、或虚拟化呢?企业如何去认识,把一个简单的节省的机会变为现实?

首先要做的是,抓住任何关于优化或改造的倡议,建立一个IT资产的基准–一个准确详细的关于服务器、软件、业务应用、以及基础设施中的附属物的示意图。大多数数据中心管理员不知道在数据中心的服务器上,正在运行的是什么,他们更不会知道是什么在浪费宝贵的资源和美元。这使得数据中心改革项目成为一个有风险的、缓慢而艰难的过程。你无法管理往往是因为你无法衡量,你怎么能管理你无法衡量的东西呢?所以,快速建立资产的基准线,包括硬件和软件,这样做可立即提供可见性,突出消除浪费的机会,从而节约大量成本。

另一方面设备发热量又与设备类型、型号,机房布置有着很大关系。据对一些机房做过的调研,发现有的设备发热量并不大。例如某电信枢纽大楼在室外30℃、室内21℃干球温度时的实际冷负荷指标只有66W/m2,其中设备发热很小。机房冷负荷远远小于常规计算指标的165~222W/m2。[1]而现实中有的机房占地面积达到了396平方米,而真正需要机房空调的服务器和配线架负荷区域却仅有60平方米。

以上机房的建设,可能是根据电子计算机机房设计规范(GB50174-93)按下列方法进行主机房面积确定的:

1.当计算机系统设备已选型时,可按下式计算:

A=K∑S(2.2.2-1)

式中A–计算机主机房使用面积(m2);

K–系数,取值为5~7;

S–计算机系统及辅助设备的投影面积(m2)。

2.当计算机系统的设备尚未选型时,可按下式计算:

A=KN(2.2.2-1)

式中K–单台设备占用面积,可取4.5~5.5(m2v/台);

N–计算机主机房内所有设备的总台数。

所以会产生上述机房内精密空调的配置远大于实际计算机设备的需求之问题的存在。

由于机房空调无法感知机房的服务器或通信网络设备具体需求量,故其制冷能力之超量会导致空调机组压缩机频繁启动,产生振荡,最终也会造成机房空调高额的运行费用。

随着数据中心(IDC)机房采用服务器虚拟化技术的大量应用,机房内高热密度负荷势必会出现散热点向关键服务器转移的现象,届时可能会出现机房内只出现少数的高热密度区域,其微环境需求会愈加严峻。