DoSTOR存储专访:NetApp推动数据中心新变革

DoSTOR存储专访:业面临诸多IT挑战,诸如业务连续性对IT系统的要求,数据中心能耗问题、空间限制等等,早已不是什么新鲜话题,不过虽"熟视"但却绝不可以"无睹"。如不积极的解决这些问题,数据中心迟早将会变成问题中心。

环保这类长期目标暂且不提,"鼠目寸光"点讲,电费问题已经赫然摆在眼前。"我们80%的成本费用都给电力了。剩下的成本就是网通电信带宽费用、人员工资和机器折旧等。"篮芒科技总经理许广彬说。IDC(Internet Data Center)服务商–上海有孚公司的机房主要以跟电信、网通合作建设为主,自己只有一个50个机柜的小机房,能放500台左右的服务器。前期投入了大约300~400万元的建设成本(不算服务器)。有孚公司安总经理对记者说,机房每个机柜每月电费大约是1500元,占到机柜总运营成本的1/4.

那么,用户如何更好的运用各项技术创新来解决能耗、效率顽疾?数据中心会朝着什么方向发展?众厂家也在寻找答案。今年二月初,NetApp将重复数据删除引入主存储,同时发布了一系列软件新版本,加强与虚拟化的紧密结合,并提高数据中心的自动化。所有软件功能整合在Data ONTAP基础平台,为虚拟化环境提供了统一的存储平台,支持多厂家的存储产品和多种协议,沿袭了NetApp的统一存储理念。

                                   NetApp大中华区总经理柯志明

结合虚拟化

存储缘何要结合虚拟化?NetApp大中华区总经理柯志明先生表示,"虚拟化在国内刚刚开始。在此之前,我们客户的一套系统只运行一个应用。"但现在,客户正在考虑如何将现有的东西更有效地利用起来,导致该转变产生的原因有二:一是预算的限制;二是数据中心空间的限制。现在应用增多了需要添加服务器,但数据中心的空间是固定的,不可能无限添加。这是虚拟化技术就派上用场了。通过虚拟化,一台物理服务器摇身一变变成多台虚拟机,矛盾迎刃而解。不仅解决了空间不足的问题,同时,还节约了设备投资和运营成本(电费)。

因此,虚拟化必将成为数据中心的主旋律,存储管理供应商需要重视起自身产品与虚拟化的结合。NetApp新推出的两款新软件,将NetApp的网络存储技术融合于VMware的数据中心虚拟化软件中。

SnapManager for Virtual Infrastructure为虚拟机提供自动化数据保护和恢复,降低了手动备份和恢复造成的人为错误;SnapManager Compability with VMware Virtualization让所有运行于 Windows的NetApp SnapManager产品都能够与VMware虚拟化软件进行整合,提供同时可用于物理服务器和虚拟服务器的通用数据管理工具。该产品包括用于Exchange、SQL、SharePoint及Oracle系统的各种版本。

尽管虚拟化解决了很多矛盾,但仅仅虚拟化是不够的。根据能量守恒定律,消灭了一个问题,必将会带来其它的问题。不过人类改变世界的决心和力量是无穷的,兵来将挡水来土掩。

更加自动化

实施虚拟化以后,增加的虚拟机让数据中心管理和维护难度逐步增大。比如,虚拟化技术让虚拟服务器数量呈指数级增加,系统管理员无法保持最新的服务器和应用程序配置记录,也无法对更改情况进行手工追踪。使用现有的人员和技术管理数据中心的难度可想而知。所以,很多情况下,增加在人员上的花费已经成了不得已的选择。很多用户都期望数据中心能够尽快实现自动化。

根据Gartner咨询公司参加去年数据中心大会的部分数据中心管理者(大约与会者的1/3)的调查结果也证明了这个结论,他们对数据中心自动化都寄予厚望。

针对这个问题,NetApp新推出了Provisioning Manager。该软件通过政策主导的自动化功能,加快现有存储的配置进程,改善容量利用率、减少了因人为出错而造成的数据丢失。虚拟服务器和物理服务器环境的存储配置中复杂的手动流程因此化繁为简,IT员工也得以将精力放到更重要的工作上。

重复数据删除全面化

过去,重复数据删除多用于备份数据领域,备份时或备份后才会删除重复数据。而NetApp于今年二月初发布了OnTap 7G 7.3版本打破了这个惯例,NetApp将把重复数据删除技术集中到其主存储产品之中,同时也将应用到包括NetApp NearStore R200和整个FAS产品线在内的二级存储产品当中。现有产品升级到Data On Tap就具重复数据删除的功能了。

为什么要在主存储中引入重复数据删除?柯志明先生举例解释到,随着数据中心的虚拟化建设,原来的一台服务器现在可能变成了多台虚拟机,有多个操作系统在运行,而这些操作系统很多是重复的,这就造成了大量的重复数据,在主存储中引入重复数据删除,可以消除此类冗余数据。

有业内人士认为该举措是可喜的,IDC的分析师Laura DuBois认为NetApp也许会开辟出新的应用领域。但世上没有十全十美的事,我们也要看到,在主存储上做重复数据删除可能给生产系统性能造成一定影响。柯志明先生坦言"我们做过一些测试,用了De-Dupication大概有5%-10%的性能影响",同时也表示,"不一定所有的应用都可以用重复数据删除,但在VM(虚拟机)里很多重复的操作系统,或者你的VM环境里面有一个home directory(主目录),这种删除对性能是没有影响的。"

看来厂家已经提出了改革方案,而且看似遥远的数据中心变革已经实实在在的发生了。英特尔去年就已经做出削减数据中心的计划,将136个数据中心以4:1的速度进行替换更新,最后合并为8个战略节点数据中心,并把能耗密度每平方英尺525瓦作为目标。相信英特尔只是一个开始,在能源成本愈加昂贵的今天,数据中心改革势在必行。在提高资源利用率的指导思想下,未来的数据中心将会是虚拟化的天下,不仅仅是今天看到的服务器、存储进行虚拟化,说不定其他的设备包括网络等等也会成为虚拟化大军中的一员。那时的人们回过头来看我们现在的数据中心,也许就像我们现在看386电脑一样。