主存储上的数据减缩策略(下):厂商的影响

戴尔横扫所有的主存储数据减缩

最为壮观的主存储数据减缩远景恐怕非戴尔莫属了。戴尔的前产品线副总裁Carter George,也是现在的商业与战略拓展部的总监,表示戴尔计划“在其所有产品中实现一致、兼容的重复数据删除技术”,包括存储系统、服务器以及其他一些种类的设备。

将数据存储到具有先进的压缩或者重复数据删除技术的设备中,所带来的并不仅仅是对存储空间的节省,而且还可以加速存储管理任务比如数据复制、备份、归档以及分级等,同时还可以节省网络带宽,以及处理器资源,George这样说道。

他预测,所有在主存储上提供数据减缩技术的厂商可以分为两大类,一种分类是按照他们的产品能以多快的速度及多高的比率来删除或者压缩数据;另一种分类则是按照他们所能提供的端到端的IT基础架构解决方案的能力。诸如惠普、IBM这样的公司,他们同时销售服务器与存储系统,在这种端到端IT基础架构解决方案的场景下,就是潜在的竞争者了。

因为数据重复数据删除以及数据压缩都属于私有性的技术,所以这种粘合度就使得客户不得不选择唯一一家厂商来购买所有相关的设备,或者选择使用相同技术的不同的产品。否则,在面对数据备份集海量增长时,为了将数据存放到另外一家使用不同的重复数据删除或者数据压缩技术的设备中时,你就不得不恢复数据原貌之后再传输。

为了实现端到端解决方案的愿景,戴尔不得不面对客户所使用的不同的备份方式以及目标介质,比如来自于CommVault Systems公司,EMC/DataDomain以及赛门铁克的备份软件和环境。客户将要在主存储上使用戴尔/Ocarina的重复数据删除技术,而同时在备份环境中又使用另一家厂商的技术。

“从长期的战略来看,我们希望看看能否在主存储侧实现对备份侧的广泛兼容性”,George表示,“在紧接着的将来,戴尔/Ocarina的目标则是先与主存储整合,然后我们可能与合作伙伴共同来应付备份侧的问题。”

对于主存储空间,戴尔计划聚焦在将重复数据删除技术同时整合到其NAS以及块级存储产品中,同时还期望将这项技术做到对用户完全透明,就像RAID的做法一样。George说:“我们强烈认为将重复数据删除技术整合到文件系统中是意义最大的事情”,他说:“戴尔如今早已有了文件系统设备,你将会看到我们会将重复数据删除技术像ZFS今天所做的那样也整合到我们的产品中。”

George表示,客户可能会看到两个层面的资源,“Ocarina初级版”一层,直接带有重复数据删除技术以及简单的数据压缩技术,作为存储系统内嵌的特性,很可能是免费提供;以及“Ocarina高级版”一层,带有可感知内容的压缩算法以及强大的基于策略选项的重复数据删除技术,可能会作为收费项目提供给客户。

据George表示,戴尔将会销售NAS设备,正像Ocarina Networks尚未被收购之前那样,而且会继续Ocarina之前的计划, 也就是将其技术嵌入到NAS厂商设备,或者直连存储设备,或者Windows服务器中。

IBM嵌入Storwaize压缩技术;HP在主存储中嵌入StoreOnce?

IBM最近发布的针对它所收购的Storwize的声明与戴尔之前宣布的路标类似,除了在服务器方面。IBM的执行官表示他们会将Storwize数据压缩技术融入到所有的IBM产品中。IBM将Storwize的主推产品重新冠以新品牌作为IBM针对NAS的实时压缩设备,而且计划使用Storwize商标打造一个全新的存储虚拟化磁盘阵列,而这个新的虚拟化阵列尚不会包含数据减缩能力。

“你暂且不会看到Sotrwize出现在一台FC磁盘阵列设备中。客户根本不想拥有一个由博科交换机、IBM的带有数据压缩功能的FC阵列以及EMC的阵列混合而成的环境。” Storwize技术战略部的前任副总裁,现任IBM全球存储效率顾问的Steve Kenniston说道,“将来,这类技术将会被广泛的融入到各种设备中去”。

作为对戴尔的George的观点的回应,Kenniston也表示,基于文件系统的做法,比如像Oracle的ZFS那样最典型的例子,确实是在主存储中实现数据减缩的最佳办法。“如果我可以在文件系统中做到,那为什么不去做呢?” 他这样说道。

据IBM的重复数据删除市场经理Victor Nemechek表示,IBM计划最早在明年将会在其ProtecTier在线块级重复数据删除以及备份产品中加入一个文件系统接口。Nemechek认为,这样便会促使客户将ProtectTier当作主存储使用。“虽然如今这个产品主要还是专用于备份,但是我们确实听到有些客户表示他们愿意将它用作主存储。”

IBM并不是唯一一家想尽办法整合重复数据删除的厂商。惠普也计划将它的StoreOnce中的重复数据删除技术整入其主存储设备中,虽然与IBM相比,惠普显得不是那么激进。公司的执行官表示他们最终会将惠普StoreOnce整合到X9000的scale-out架构的集群NAS产品中。但是惠普StorageWorks产品线的市场总监Lee Johns却将主存储数据删除在HP的重复数据删除路线中放在优先级较低的位置上。

“我对惠普是否真的可以实现将StoreOnce用于他们的主存储重复数据删除持怀疑态度,因为StorOnce原本是作为一个用于备份设备的重复数据删除产品而被开发的。”INI Group的Asaro说道,“那些基本上是完全不同的技术以及完全不同的算法。”

标准化是否还是个白日梦?

Dell以及惠普所畅想的端到端的解决方案能力,实现数据在不同的系统中都以去重或者压缩状态来互相传输而不需要任何恢复原貌的过程。这种畅想恐怕只能在他们自身的私有环境中实现,除非有一种可在异构平台之间达成配合的标准出现。

不同厂商之间的重复数据删除或者压缩技术,就像雪花一样,没有哪两片是完全一样的。有些采用在线的实时前处理模式,而有些则使用后处理模式;有些采用定长块的处理算法,而另一些则采用可变长度的算法,有些则采用更小的粒度来实现。有些使用成熟的Hash算法来计算数据块的质问,而有些则使用更为简单的算法。有些可以让用户来定义重复数据删除的范围,而有些则只能将重复数据删除的作用范围严格限制在特定的卷或者文件系统中。

“如果我是用户,我就会问,为什么我要去面对如此多而杂的重复数据删除或者数据压缩算法呢?它们要做的事情本质上就是数据减缩,是同一件事情啊!”NetApp的存储效率解决方案部门的高级市场经理Larry Freeman说到,“问题是,目前是一个竞争的市场,没人愿意共享,因为那意味着它们将要放弃自己的专利以及其他私有知识产权。”

Freeman表示,制定重复数据删除标准这个议题是从存储网络工业协会(SNIA)的会议上被提出的,但是“当我们意识到目前根本不可能的时候,讨论很快就停止了。”

“甚至没人愿意在当前这个情况下坐下来讨论一下性能标准,因为没人愿意拿自己的产品与其他人的重复数据删除产品比来比去的。”Freeman继续说道,“没人愿意在排名列表中排在最后,所以我们私下里正在就关于如何提升重复数据删除质量展开合作,同时也在讨论怎么让用户接受他们确实需要重复数据删除这个技术。”

上一篇文章 主存储上的数据减缩策略(上):前景展望