服务器在数据中心的地位正在下降,存储系统–得益于数据重要性的日益加强–在数据中心的地位正在稳步上升,企业信息化与IT系统的核心发生实质的转变:计算能力不再是评价的主要标准,对信息与数据的掌控是CIO最迫切的诉求。
据Gartner的报告显示,2010年全球基于控制器的外置(ECB)磁盘存储收入比2008年的高位水平超出了14亿美元。2010年ECB存储收入超过194亿美元,比2009年的165亿美元高出了18.1%1。而同样基于Gartner的数据,2010年第四季度全球服务器市场出货量增长6.5%,营收增长16.4%2。自2010年开始,企业在服务器上的投资年均增幅已经开始逐渐小于在外部磁盘存储上的投资(主要是数据中心的网络存储系统),存储开始超越服务器成为IT投资主要增长点。
正因为如此,数据管理的话题才会引发如此多的人热议,也催生了《数据管理的智能趋势》这个文章系列的诞生,在之前的文章中,存储管理、虚拟化、数据保护和云计算组成了智能数据管理在当下迫切需要解决的话题,但面向未来,数据管理的趋势是否一成不变?2、3年后的数据中心,当存储系统与数据管理架构成为数据中心的核心价值,是否将会发生新的改变?
答案是肯定的,在过去三十年,SAN和NAS几乎统治了存储市场,但这一切已经开始发生改变,对象存储、融合设备正在兴起;存储系统的生命周期正在缩短,原本5-7年的生命周期,被数据爆炸逐步压缩到3-5年;数据中心内连接的方式看起来也正在从光纤通道转变为新的连接手段;即便是数据本身,看起来也在发生着改变……
就像国家制定“十二五”计划,为未来五年设置目标、指导意见和实现的路线图。企业数据中心的IT规划同样需要为五年,甚至更长时间的发展做出规划,而数据作为最重要的,并且是唯一将贯穿始终的部分,为其做出长期规划的必要性不言自明。
但在如此复杂和多变的信息与数据组成的世界中,面向未来制定长期的数据管理规划,是企业CIO将面临一大挑战。智能是必然的发展方向–解放人力降低成本,加大自动化、智能化的比重–智能数据管理已经展现出其作为“面向未来的数据管理”方法的重要优势–让信息、数据、存储系统和整个数据中心变得更加智能,这总是没错的。
连接方式改变数据存储:10GbE,FCoE,DCB
2007年4Gb/s光纤通道(FC,Fiber Channel)成为数据存储的主流之后,FC在数据中心市场就开始进入发展的平台期,虽然FC已经在数据中心–尤其是存储系统–的外部连接市场占据极高的市场份额,但由于价格与拥有成本、技术发展速度的桎梏,发展的速度受到了极大的局限。在10Gb/s以太网技术成熟之后,FC虽然以8Gb/s的新一代速率产品应对,但纵观未来3~5年的发展,以及10Gb/s以太网如今极快的发展势头,这两者竞争虽然仍有不少光纤通道厂商仍坚持己见,但胜负其实已经非常明显。
伴随着10Gb/s以太网的发展,FCoE和DCB也应需而生。随着10Gb以太网渐行渐近,基于以太网的光纤通信技术(FCoE)和新的无损10Gb/s以太网(Data Center Bridging,简称 DCB)技术开始在数据中心流行开来,未来数据中心网络融合的基础将构建在10Gb以太网架构上。
数据广泛存在于企业的IT系统中,是企业发展的核心,一切的IT系统发展都有赖于数据,并服务于面向企业业务的数据管理需求。随着IT行业的发展以及企业对数据管理要求的不断进步,数据管理的“智能”趋势已经锐不可当,智能的数据管理正在成为所有企业所追求的共同发展目标。
FCoE力争在以太网上实现光纤通道才具有的特性,它可以将光纤通道信息插入以太网信息包内,从而让服务器-SAN存储设备的光纤通道请求和数据可以通过以太网连接来传输;DCB则提供了一个能够最大限度地减少丢包现象的网络基础设施,进一步扩展了以太网,由于 DCB提供了"无损"网络,因此它能够最大限度地提高网络性能的可预测性,也为存储系统真正实现运行在以太网环境中提供了基于低成本的可能性。
10Gb/s以太网、FCoE和DCB,三种连接方式正在改变数据存储,同样也在改变着数据管理的方式,随着以太网在下一代即将迈向40Gb/s而FC的下一代则仅仅为16Gb/s,且DCB和FCoE技术大大提高了以太网的应用水平和范围,以太网存储系统和光纤通道存储系统在存储市场的比例将发生很大的改变,以太网很有可能超越光纤通道在存储系统中占据主流。
开始采用或逐步过渡到以太网存储系统是面向未来的数据管理的必经之路,以EqualLogic在以太网市场上每年两位数的增长速度能够看出大势所趋,而Compellent存储系统实现FC+IP SAN并为FCoE准备就绪的统一存储,则为未来5~7年的过渡与替换期做足准备——现在是时候为以太网时代做好准备,因为以太网全面占据光纤通道存储系统市场份额的事情,的的确确会在未来3年发生。
数据开始流动 系统升级加快步伐
在分层存储技术成熟以前,数据被静态的存储在一成不变的介质中,只有等到确认一份数据不再被使用,或是不再被经常使用,数据才会随着归档软件对归档服务器的巨大资源占用,被归档到更为低成本的磁盘或是磁带上面。数据的静止造成了存储系统的巨大浪费。
随着Compellent为首的自动分层存储技术的成熟,以及由EqualLogic、Compellent等存储系统所带来的横向扩展架构——同代甚至是多代之间的存储系统能够形成一个统一的存储池——数据开始在不同的介质、不同存储节点之间流动,加之磁盘备份存储系统开始取代磁带成为备份的高效替代系统,数据的流动比以往任何时间更加流畅。
如果你的数据还停留在主存储系统上,或是停留在昂贵的在线磁盘上,高昂的成本和低效率的存储系统会让你迫切提高他们的效率和性价比,尤其是在虚拟化时代来临之后,不仅数据动态变化,虚拟的服务器——虚拟机的建立、运营、停止并继而消亡的过程来的比以往任何时候都要快。一份数据可能今天还是重要的案头资料,明天可能就会成为需要“暂存”到低成本系统甚至是进行归档的对象。
因此,自动分层存储和横向扩展必须成为未来存储系统的目标,而数据管理架构,也应该能够智能的识别出至少三个方面:1、哪些介质是高效的,哪些介质是低成本的,SAS磁盘、SATA磁盘或是SSD能否被识别出来;2、哪些数据需要被及时的备份、归档,哪些数据需要被精简(重复数据删除);3、哪些系统节点是新的性能更好的节点,而哪些又是可能被用来进行较低相应需求的应用的数据的承载。
如果你的数据管理架构,无法实现这样的智能数据管理,那么,不仅是你的存储系统,你的数据中心、IT架构,都Out了!
进入大数据时代 进入云计算时代
大数据(Big Data)与云计算的势头已经难以抵挡,大数据问题的出现,主要是我们现在所面临一个新的数据量级的来临:企业数据从TB到PB,个人数据从GB到TB——我们对解决大数据问题的诉求来自于三点:1、生成数据的设备的增加,个人数字设备、企业计算系统产生的数据量远远超过10年前, CommVault的徐永兴说2011年产生的数据量是1996年的180倍;2、文件(非结构化数据)本身的大小发生变化,从600MB的RMVB到了30GB的蓝光1080P视频;3、企业数据量增加,造成的数据库庞大。
而云计算随着这一轮浪潮的浮华褪去,也正在显示其作为业界发展趋势的真实本质——不论云计算是否是一种新的计算形态——比如有些人认为其不过是分布式计算和按需付费的结合——单就我们希望云计算所达成的目标:跨地域、高可靠、按需付费、所见即所得、快速部署等等这些都是过去二十年IT行业所追寻的。现在我们可以说,云计算将是新的IT生态,当然,云计算正面临着大数据和混合云需求的考验。
自然而然,云计算和大数据将是未来的数据管理的一大挑战,对于云计算,在之前的文章中我们已经谈过以太网存储(IP SAN)、横向扩展、自动分层、重复数据删除以及无缝扩展的意义,但对于大数据而言,我们同样需要解决办法——与大多数宣传所谈的不同——我认为大数据不仅存在于大型企业,同样存在于中小型企业中,由于大数据可能是单体文件(非结构化数据)的庞大,也可能是来自于数据仓库等应用的结构化大数据集的庞大。