随着服务器处理器遵循摩尔定律变得越来越强大,但它们消耗的电力和产生的热量也越来越多;同时,和磁盘存储技术发展使在线数据暴涨的现象类似,使用大容量存储系统消耗的电力几乎达到了和服务器一样多。随着计算能力和存储容量的快速增长,数据中心能耗(kWh,千瓦/小时)和功率密度(kWh/sq.ft.,千瓦时/平方?)呈螺旋式上升,给现有数据中心配电和制冷系统带来了越来越大的负担。
数据中心里的"能源危机"
数据中心每消耗1瓦特电力需要3.413 BTU/小时的制冷量来消除产生的热量,根据气候的不同,以3.413 BTU/小时消除热量的速度需要额外的0.4-0.6瓦特电力。据惠普发布的一份报告显示,数据中心电力密度已经从1992年的2.1 kWh/rack(千瓦时/机架)上升到2006年的14 kWh/rack,现在急需要能够处理机房内"热点"的制冷系统。
Ziff-Davis市调公司2005年11月发布的一份调查报告显示,71%的IT决策都与处理或跟踪电力消耗和制冷相关,63%是增加电力容量和扩大数据中心。2006年5月IDC做了一次类似的调查,发现电力供应和电力消耗位于数据中心亟待解决的前三个问题之列。
另一方面的电力问题是电力成本越来越高,据IDC发布的一份报告显示,当前3年的电力和制冷成本基本上和数据中心固定资产的采购成本相当了,随着对计算能力的需求和电力成本的持续增长,电力将会成为IT预算的较大组成部分,在未来几年内可能会上升到50%。
随着这些趋势的继续发展,数据中心管理人员需要认真考虑每一次电力和制冷投入的影响,此外,电力和制冷的生命周期成本将会成为计算TCO时的重要因素,而TCO在竞争解决方案中进行选择时具有指导作用。服务器电源效率指标是由EPA开发的,EPA希望数据中心设备制造商发布能源之星指标,帮助客户更好地管理电力消耗。关键的电源效率指标可望使用负载/瓦特(服务器使用),GB/瓦特(存储使用),Gbps/瓦特(网络使用)。在朝标准化努力的同时,最终用户可以开发自己的电源效率指标,例如,对于计算能力效率,可以使用关键应用程序除以对应的电力消耗瓦特数,对于高性能计算,Mflops/watt(百万次浮点运算秒/瓦特)是通用的电源效率指标,对于数据库应用负载,对于一个给定大小的数据库,TPC-H综合查询每小时/瓦特(QpHH/watt)是一个合理的电源效率指标。
集中关注电力消耗和电源效率有以下潜在的好处:
–延长现有数据中心的使用周期,减小改造成本;
–夺取电力和制冷成本的部分控制权;
–优化新数据中心的设计。
管理数据中心电力和制冷
优化数据中心的整体电源效率需要一个综合办法,要从技术和策略上,在基础设施的每一层同时最小化电力消耗和最大化电源效率,包括CPU芯片、电源、服务器、存储设备和网络设备,除了最大化硬件设备的电源效率外,还有软件策略需要考虑,如服务器虚拟化,通过服务器虚拟化可以极大地减少电力消耗。
CPU芯片
在一个给定的计算性能水平下,CPU芯片的基础架构可能对电力消耗有重大影响,例如,在CPU上集成内存控制器可以减少芯片集的整体功耗,许多服务器制造商为给定服务器模型提供了多种CPU选择,在产品选型和交易时可以考虑电源效率。每芯片的晶体管数量几何增长定律预计到2010年仍然会保持不变,每个芯片的电力和时钟频率保持水平增长。这些技术趋势促使芯片制造商转向多核芯片,以充分利用晶体管的密度,例如,双核CPU可以比单核CPU提供更好的性能,因为只需缩减大约15%-20%时钟频率就可减少约40%的电力消耗。
应用程序可以从多核芯片架构获得许多好处,包括多线程(如集群计算),事务处理和多任务应用程序,对于这些应用程序,一个双核处理器比单核处理器在消耗相同电力的情况下,可以提供高于60%的性能,但单核处理器为I/O密集型,单线程应用程序提供更好的性能,因为多核需要争夺内存和I/O带宽。从性能和电力角度看,多核CPU的趋势将会驱动新应用程序多线程编程模型的优先级。
第二个提高电源效率的芯片级技术是动态时钟频率和电压调节(Clock Frequency and Voltage
Scaling,CFVS),CFVS通过动态调整CPU的性能(通过时钟速率和电压)提供按需的性能以满足工作负载,使用CFVS时,CPU以最小时钟速率(和功率电平)运行,提供与当前工作负载完全匹配的计算能力,时钟频率和电压通过操作系统的电源管理工具调用行业标准"高级配置和电源接口(ACPI)"进行控制。
CFVS的好处见图2所描绘的内容,在左边的图中,显示了电力消耗和CPU利用率之间的关系,CFVS在空闲时可以提供高达75%的电力节省,在CPU利用率达到20%-80%范围时可节省40%-70%的电力消耗,在右边的图中,电源效率是以工作量/瓦特为单位的,因为CPU性能不是由CFVS降低的,相反,使用CFVS可能会使电源效率大大提高。
服务器
机架优化的服务器和刀片服务器可以共享大量的组件,包括更高效的电源供应和制冷子系统,与传统服务器比较,刀片服务器可以减少约20%-50%的电力消耗,同时也减少了设备的占地面积,结果是总体电力消耗减少了,但电力密度增加了,即"瓦特/机架"的数量上升了,电力密度越高(在大于12-15 kWh/rack范围内)对制冷的要求也越高,如刀片服务器机架的液体制冷。无论选择哪种服务器包装方式,服务器电力供应(以及数据中心所有设备的电力供应)都应该尽可能选择更高的电源转换效率(例如,转换效率超过80%,功率系数就接近1.0)。
服务器虚拟化
服务器虚拟化通过应用程序整合,减少物理服务器的数量,淘汰低利用率的服务器,减少服务器的数量最大可能节省50%的电力消耗。服务器虚拟化非常有吸引力,因为它可以部署在现有服务器上,使应用程序中断时间缩短到最小,除了省电外,它还具有其它方面的TCO好处。
存储
对于存储设备,电力主要是被主轴电机消耗的,这意味着电力消耗和磁盘容量完全没有关系,因此,存储的电源效率(单位GBytes/watt)可以通过部署高容量磁盘最大化,目前大容量磁盘(>500GB)主要用于要求较低的应用,如数据挖掘。对I/O性能要求较高的应用一般使用>100GB的磁盘,如数据库应用,存储虚拟化技术和大规模分级存储可以最大化电源效率。
网络基础设施
交换机和路由器电源效率是通过吞吐量效率(Gbps/watt)测量的,对于大型数据中心,需要高密度,机架式交换机/路由器,其电源效率主要取决于设备背板的电源特性,除了提供线卡之间的物理连接外,背板还要为线卡和控制模块分配电力,对于耐腐蚀性的铜背板,电源效率主要与铜的电阻有关。例如,Force10 E系列交换机/路由器使用获得专利的4层,4盎司铜背板最小化电阻和电力消耗,因此,E系列背板自身的电源效率达到了4.5 Gbps/watt,图3显示了E1200交换机/路由器完整配置1000Base-T GbE端口,以线速运行,系统级电源效率为0.125 Gbps/watt(8瓦特/1000Base-T端口)。
同样,E1200全配置4端口10 GbE XFP线卡,以线速运行,系统级电源效率为0.12 Gbps/watt(83瓦特/10 GbE端口)。
E系列背板的高储备能力允许未来增加线卡端口密度,但电力预算却不用再增加了,这意味着系统级电源效率与端口密度紧密相关,例如,当GbE端口密度增加了一倍时,系统电源效率将也会增加近一倍。
超高密度、低功耗交换机/路由器可以提供运营商级的可靠性,如Force10 E系列可以通过两个方面减少数据中心电力消耗。
1)交换机合并
将大量低密度交换机合并进高密度具有冗余共享电源的大型交换机,有点类似于刀片服务器vs传统服务器,高密度也允许传统的接入,将聚合/分发层交换机合并到一层,Force10 E系列的可扩展性/密度通常可以让交换机按3:1的比例进行合并。通过合并消除接入层交换机,增加聚合交换机的接入能力,增加核心交换机的接入能力。
2)统一交换结构
随着智能以太网卡的出现,既减少了主机的网络延迟,又降低了CPU利用率,以太网完全有能力作为一个统一的或融合的交换结构,提供LAN连接,存储网络和跨数据中心的集群互联,使用统一的以太网架构,电力消耗会更低,因为每台服务器只需要一块网卡,并且也不需要增加额外的交换机。
虚拟数据中心
另一个减少数据中心电力消耗的方法是摆脱基于静态模型的专用物理资源,进而转向虚拟模型,每个应用程序都使用资源共享池,以满足工作要求,由于各种应用的业务高峰发生时间不同,共享资源模型可以使用更少的资源完成同样的工作,因此电力消耗也就会更少了。
服务器虚拟化结合自动化系统管理,加上统一以太网交换架构,朝虚拟化数据中心卖出了一大步,虚拟化数据中心对资源的利用追求最大化,最电力消耗追求最小化。
总结
到目前为止,IT人员通常关心的还是计算能力和存储容量,对电力和制冷关注度远远不够,但据以太网联盟的消息,在美国,低效网络每年将会浪费$450m,或5.8 TW-h,而放大到全世界,浪费的可能有3倍多。
为了解决网络电源效率,IEEE已经决定成立一个研究小组,专门研究以太网电源效率标准,该工作组将努力确保在正常使用情况下实现最高的效率,开发设计能耗更低的网络设备标准。
除了行业联盟和标准的努力外,目前也有大量的技术和策略让数据中心管理人员可以改善现有数据中心的电源效率,同时为新数据中心设计优化电力和制冷。在数据中心每一层都关心电源效率指标和省电措施,最大限度减少物理设备的成本,以及日常电费开支,因为电力成本已经是TCO和IT预算的一个重要组成部分。