CIO“灭火”:消除虚拟化对数据中心弊端

服务器在线11月17日报道 不久以前,一些软件工程师发现,运行一个应用程序的服务器是浪费的,因为这台服务器耗费了大量的资源却仅仅使用了一小部分的处理能力。目前,IT部门利用服务器虚拟化好处的理由之一就是减少数据中心的耗电量。遗憾的是,他们不知道促使他们采用虚拟化的同样的理由也影响到了他们数据中心的效率。为什么做服务器虚拟化这样的好事会对数据中心的效率产生负面影响呢?本文将帮助你理解这个潘多拉的盒子,并且提出一些避免这些问题的建议。

一台服务器有电源、内存、硬盘、风扇、板卡、处理器和其它消耗电源的组件。这些组件产生某种形式的有价值的计算能力。在服务器接通电源之后,所有这些组件立即要消耗电源,即使在没有任何计算任务的时候也是如此。这就是已知的固定损耗。服务器的固定损耗一般占服务器最大耗电量的33%至50%.随着处理器利用率的增加,电源的消耗也增加,但是,固定的损耗没有变化。遗憾的是没有采用虚拟化的服务器一般运行一个应用程序,处理器的平均利用率大约是5%至 10%.这就意味着这台服务器的每千瓦小时的成本要远远高于运行10个应用程序/操作系统(也就是虚拟机)的主机服务器。

这种情况与数据中心发生的情况非常相似。一个数据中心在开始运行的第一天就是一个超过当前使用规模的以便应付未来的最大IT负荷。在那个最大负荷到达之前,这个数据中心运行较轻的IT负荷,不间断电源、变压器、冷冻器、风扇和空调都要消耗固定的电量。要记住的重要事情是这些固定的数据中心损耗占整个电费账单的很大一部分。IT管理员认识到,通过在一台主机上放置更多的虚拟机能够更有效率地运行服务器(也就是利用率更高)。要这样做,他们实际上是把更高的计算工作量增加到处理器上来提高服务器的效率。这是最有效地利用IT资源的极好的解决方案。但是,IT管理员没有认识到他们同时还减少了数据中心的能源效率。换句话说,通过虚拟化,大部分电费账单是与物理基础设施联系在一起的。数据中心在实施虚拟化之前一直以低容量运行(一般是工作负荷的50%至 60%),在虚拟化之后,一些不担负任务的服务器拔掉电源之后,这种情况会更糟糕。

IT管理员如何在虚拟化环境中提高数据中心基础设施的效率?两个最有效的改进方法是正确的尺寸和转换到紧靠热源的制冷。

正确的尺寸包括用可升级的高效率不间断电源替换老式的单模块不间断电源。可升级的不间断电源系统总是高效率地运行,因为它安装了足够的电源模块支持这个 IT工作量。例如,一个有61千瓦IT工作量的数据中心将得到7个10千瓦电源模块的支持。这些电源模块将嵌入到一个模块化的不间断电源设备中。如果这个 IT工作量增加到75千瓦,这个不间断电源模块就要在不关机的情况下增加一个额外的10千瓦电源模块。转换到可升级的高效率不间断电源可以将运营电源成本减少50%至70%。