解决之道:数据中心部署技术

由工业和信息化部信息化推进司批准,中国数据中心产业发展联盟主办,中国IDC产业联盟网、北京三达经济技术合作开发中心联合承办的“2011中国数据中心产业发展大会”3月22日在北京新世纪日航饭店隆重召开。工信部信息化推进司、电信管理局等行业主管部门的领导将披露十二五信息产业规划蓝图,解读行业监管政策,另外,本次峰会将围绕国内数据中心领域产业发展、规划建设、市场运营、应用导向、技术引领、客户服务感知等进行深入交流和探讨。

以下为中国移动北京公司数据部赵印茹的演讲实录。


中国移动北京公司数据部数据业务维护中心赵印茹

赵印茹:各位嘉宾、各位朋友,早上好!我代表北京移动从运营的角度跟大家进行经验分享。

我的分享经验材料一共分成四个部分:第一部分是北京移动IDC的情况简介;第二,北京移动在建设高级别数据中心方面的经验;第三,北京移动在建设绿色、环保、节能数据中心方面的经验;第四,北京移动在运营标准化的运营经验。

我们北京移动IDC是2002年开始做的,到目前为止,我们经过8年的努力,一共建设了8个重要机房节点,机房面积一共是4万平米,有上百个的带宽连到骨干网上,北京移动有比较丰富的IDC的运营经验和实力,是国内首家通过ISO27001国家认证的数据中心。我们担负着疏通全网内容的重要战略使命,我们现在整个中国移动6个亿的WEB访问站点都是在北京移动数据中心之内。

我们现在在IDC建设标准运营方面已经通过多个国际认证,在建设标准方面我们遵从两个国际标准:TII92和(三通)标准。(三通)是比较早一些,TII92没有为国内接受的时候,我们采纳英国的数据中心标准。

第一方面,我们主要是遵从TII92标准,主要是在建筑物环境保护供电安全,安防能力,通信保障,运营保障方面都有合规性的要求,主要是分了四个阶梯。第一,Tier1是很基本、没有冗余的数据中心,电源、制冷是单路径,没有冗余组建,UPS、柴发是单系统,存在很的单电故障。重点的供电会因定期维护、维修而随时中断。

T3的标准,主要是对电源、制冷都有多路径,同时要有同时维护的能力。比如热备的时候,在供电的情况下,对另一路的信息维护的时候,不会影响业务的中断。我们现在北京三大运营商里,比较高一点,比如说2009年底到2010年建设的机房,基本能达到T3+的水平。

在T4里边,要求你有容错能力。在亚洲这个市场上,数据中心建设的标准上很少有数据中心能达到T4的标准,因为T4标准要求是比较严格的,一般来说都能达到T3+的水平。

我们已经基本达到T3+以上数据中心的标准,我们也有分享的数据参数。面积差不多是5000平方米,楼高(到地板下)是4.8米,承重是1000公斤/平方米,总电量可以达到9兆伏千瓦,UPS总电量能达到4.5千万。

我们有一个北京市场第三方机房,就是T2水平的技术参数,供大家去了解,这些参数都是非常有实际意义的。今后大家做数据中心建设的时候,或者在做运营商选择的时候,都有很多的参考意义。

我们在数据中心,各个运营商还有IDC的经营商,都会有场地选择的要求。在大型国际招标过程中,都有非常详细的,比如说到机场,是不是在10公里以上的范围,比如在高速公路方面,是不是已经很靠近煤气管道等等,在T4标准里都会有非常详尽的要求。

我们在大的方面,第一,公共交通的便利;第二,有充足的电力供应,以确保双路供电。电力局可以提供两条独立的接入点,可以和大楼相接。其他有粉尘性的,在选址的时候要着重去考虑。

楼宇结构方面,高承重,云计算以后,我们7.5千万的机柜已经逐步普及起来,高承重已经成为我们下一代数据中心非常重要的一个要求。我们承重能力至少是达到800公斤以上,一般的情况下,在T3+上至少要1到1.5吨的要求。这里写的是楼高4.8米,其实严格来说应该是5.1-5.5米的要求。我们也有宽大的开放空间,得益于容纳冷却机组。从现在的运营经验来说,如果建2万平米,实际上只有1/4机房利用率,其他空间都是放电源和UPS的位置。要独立分割空间,可以按照客户的需求,满足各种个性化的需要。

这个数据中心的内部设施,这张图各位已经非常熟悉了,我就不再去讲了,各个方面的考虑,过道、运货间等等,都应该有非常好的能力。最佳的电力系统方面,变压器有2N的配置,UPS和制冷设备应该有独立的变压器供电能力。在T4标准里,2N的要求,在电力上是非常严格的。包括我们从UPS到设备之间的完全交叉连接方面等等,还有整个后备机系统独立的分离空间,都有非常细致的要求。

我们的燃油储备量,北京移动大白楼支持4个小时的发电供电。

在环境配置方面,右边的图就是我们中国移动南方基地和北方基地,在北京比较偏远的地方,完全要利用室外的制冷环境,去保证我们环境的温度。精密空调和冷却机组全部是N+1配置,提供30-40%的冗余能力,通过双变压器和双发电机进行提供。

我们的防火系统是FM200灭火系统,烟感传感器在天花板内和活动地板内,如果活动地板超过50厘米的话,地板下必须要放置灭火气体,这个方面的要求也是非常高的。如果我们要达到7.5千瓦的机柜制冷能力,地板下面一定要高于50公分。

我们也要有24X7X360的CCTV监控和数据中心管理,这些我就不再详细的说了。

我们在整个网络连接方面,我们是双电路的管道进入数据中心,中国移动的T3+标准IDC里边,我们要求至少有3路电信线路能够去入到楼里,万一我们自己的网络发生问题,还有其他运营商的电路来保证我们网络连接的可靠性。

在绿色IT方面的应用,我刚才听到许先生讲到很多的密封性的空调制冷。中国移动北方基地在密封机柜制冷方面有实践,而且机柜内空调制冷在绿色IT方面,我们主要有四方面跟大家经验分享:

冷却机组使用环境的冷酶,我们会有措施去使用这个风,冬天的时候会使用外界自然的冷风,我们也会有一些冷却水,我们一些T3+高密度的机房实现风能和自然水冷的双结合,我们就是有双冷的冷源制冷,不存在破坏臭氧的威胁。最高的效率工作,比如刚才讲到的冷区的整个密闭空间,我们也有相应的实验数据,在密闭的冷空道,至少制冷效率可以提高10%左右。

我们还有UPS,符合航空运输的标准,发电机我们也有低气体的排放,低烟雾的排放,低噪音的污染,所有设备都采用节能环保技术,使我们这个数据中心的能耗达到一个新的PDU。

冷热通道,刚才也讲了,我们从2003年开始,所有数据中心的机房就已经是冷热通道分区,2006年的时候全部机房建设在实施冷通道的密封技术。

在这些基础设施建好以后,更重要的是有专业的管理,确保数据中心的高可靠性的运营。我们现在有包括建筑机电和电信项目的管理专家,有安全和设施的管理专家,有数据中心运维管理专家,我们会进行测试,为整个数据中心提供综合的全面的测试。

中间这张图,就是我们大白楼完成完成之后,我们会做热分布测试能力,看看哪些地方的热分布还不够合理,尤其是对10千瓦、7.5千瓦,一定要做热能的分布测试。

PUE,我们现在IDC所有的运营,在座的各位都很清楚这样一个能耗衡量指标。我们认为PUE小于2的时候,数据中心的能耗是比较理想的。北京中国移动大白楼的PUE可以达到小于2这样的一个水准。

我们在空调制冷方面,一般的室外机,北京来看用室外分冷制冷的,现在已经开始用冷却水去制冷。如果用冷冻水的话,经过测试以后的节能效果可以从25%提高到40%的水平。

在照明这边,我们北京还有很多数据中心没有实施这个T5的灯管,所有的照明设施,现在以200平米的数据中心,如果用T5的灯管,整个一年的用电量节约的电量可以达到1万千瓦,所以说照明也是一个非常重要的节能方面。

最后一个方面,整个北京移动数据中心的标准化运营方面,我刚才也讲了,我们是国内首家数据中心通过ISO27001的数据中心。通过这8年的运营经验,我们把北京移动的IDC建设运营经验做了一个标准化的运营流程。这个标准运营流程,我们对管理最完善服务最优秀、安全最可靠等方面,有200多份的流程和操作指导手册,指导中国移动的将近30万平方米的数据中心的运营。

第二方面,我们整个机房,电源还有空调安全等等,还有运维方面的验收标准,结合TII942国际标准,也形成了中国移动IDC建设验收标准,指导中国移动数据中心的建设与运维。

北京移动的数据中心的安全管理体系,就是运营体系的其中一部分,就是安全标准方面,我们一共分了12个方面,数据中心整个的信息资产进行最强有力的保护。这方面我就不再特别占用大家的时间了。

我们整个数据中心结合起来的运营经验,首先我们要有准确的定位,比如说北京移动IDC定位于中国移动的战略发展目标,为我们的移动互联网的发展,储备优秀的内容资源。我们应该有一个长远的规划,比如T3的国际性先进标准,绿色节能技术长期规划等等,我们至少提前3-5年都有非常明确的规划远景。

我们在数据中心建成以后,我们要有一个非常全面的测试,包括冷热的分布,整个UPS切换能力等等。包括刚才许先生也讲到6地震抗压能力的测试,我们还会有非常好的环保意识,因为整个数据中心是一个重产业的建设项目,环保的技术应用是非常重要的。我们也需要有一个高网络质量,比如多家运营线路的连接,多条光缆的保护等等,最重要的还是需要更高的高级技术人才的支撑,支撑整个数据中心的运营。

今天有幸跟在座的各位分享我们北京移动数据中心的建设经验,我感到非常荣幸,我的介绍就是这些,如果大家有什么疑问,可以会后发邮件给我。谢谢!