案例:SmartRack冷帽方案+机器人运维=数据中心PUE 1.1

  导语:整机柜从本质上来说反映了数据中心用户对TCO的追求,节省功耗、降低散热、简化运维……所有的这些最终都可以转化为可衡量的支出,归根到底就是把设计简单化,去除形式化,让软件来定义硬件,这也遵循了“大道至简”这条亘古不变的真理。

  Gartner针对CIO的调查显示,电力和制冷问题是数据中心面临的最大问题,能耗支出逐年增加也备受关注。在美国,数据中心3年的能耗支出已经等于设备购置成本;在欧洲,3年的能耗支出则是设备购置成本的2倍;在国内,电费动辄数百万甚至上千万元的数据中心已不计其数,俨然成了“无底洞”。大力推进绿色数据中心的建设和应用,对于数据中心的发展意义重大。

  数据中心:成长的烦恼

  移动互联网的蓬勃发展使得网络和业务应用越来越多地向拥有大量服务器和存储集群的大型数据中心转移,国内数据中心规模迅速的扩张,极速发展的数据中心正经历着“成长的烦恼”。

  由上海电信、上海市宽带中心及浪潮联合承担的“基于SDN的高效能数据中心规模试验与应用”项目的筹备完成,绿色数据中心构建已渐入佳境,为国内绿色数据中心建设树立了标杆。

  SDN的高效能数据中心整体解决方案,在国内尚属首次。传统中心IT能耗、空调能耗均达到总能耗的40%,PUE(数据中心消耗的所有能源与IT负载使用的能源之比)则在1.5以上甚至更高。上海市宽带中心提出,实验要求PUE要降到1.1甚至更低,必须更换固有思维和技术,才能确保目标实现。

  数据中心的工程美学:模块化与极简主义

  早在2014年底,浪潮整机柜服务器SmartRack担当了上海宽带中心的面向下一代数据中心的CoolHat(冷帽)创新解决方案的实验用机,为绿色数据中心硬件层面打下坚实的基础。此次SDN项目的筹备,将使得浪潮SmartRack从降低硬件设备能耗和提高软件管理两个层面协助上海宽带中心解决未来数据中心的绿色发展问题。


 

  SmartRack将通用服务器中供电和散热模块,集中设计在支撑模块中,计算、存储、网络功能模块在节点单元中,从而将供电、散热、管理集中起来,由几十台服务器共享,降低成本,提高效率。以散热为例,Smartrack整机柜服务器则将极简主义发挥得淋漓尽致,去掉了电源、风扇以及不必要的USB、显示等管理相关端口,把原来主要设在后面的I/O端口转移到前面,同时带来了便于维护的好处——譬如,不用单独接插电源线,而且风扇、电源的生命周期与CPU部件不同,可单独替换,可重复建设……

  依托浪潮整机柜服务器Smartrack,CoolHat解决方案统一网络技术、减少设备种类,就可以降低IT基础设施复杂性。CoolHat能够最大限度地利用有效冷量对IT设备进行制冷,按照Smartrack高密度整机柜服务器的指令,将冷量尽可能地直接送达发热设备,精确对不同设备定量制冷,从而达到末端节能。CoolHat采用CO2(二氧化碳)制冷空调混合系统,创新设计密闭式前后气流通道门,可根据配置机柜内各设备温度分布调节其双板角度、配置各区域设备进风量,可以轻易为10KW以上功率的机柜供冷,制冷节能超过10%。

  机器人运维+Smartrack  PUE达到1.1

  以浪潮Smartrack为主要维度的CoolHat(冷帽)数据中心解决方案相比传统机房服务器部署密度提高13.8%,相同业务量总能耗降低超过30%,业务上线运行时间相比传统服务器提前40%。同时,10余倍普通服务器的交付效率,也让运维人员不必天天重复“搬箱子、上架、上电、调试……”这些动作,而只需每年集中在几个时段部署即可。

  (浪潮SmartRack整机柜服务器)

  作为新技术的受益者,国家宽带网络与应用工程技术研究中心副主任陆肖元对整机柜服务器有更深刻的理解,“我们对整机柜的设计,遵循一个最基本的哲学思维,就是模块化和极简主义,所有东西都是模块的,包括制冷、供电,都是用最短的路径、最简单的方式提供到工作的单元,追求极简、极省、极短。”

  陆肖元所期望的数据中心,应该坚持“模块化+极简主义”的工程美学,整个数据中心对空间的利用达到极致,并全部采用机器人实现无人运维。“我们做了两年,现在来看,和传统的数据中心相比还是有一些优势的,比如说在采用了浪潮的smartrack整机柜服务器后,只要4个平方就把原来400平方的服务器全都装进去,并且在上海的自然环境下,数据中心的PUE值基本已经达到1.1。”