主存储的去重与数据压缩——HP和HDS的考虑

两个主流存储厂商——惠普(HP)以及日立数据系统(HDS)好像并不急着在它们的主存储设备中提供诸如压缩或者重复数据删除一类的数据减缩技术。

HP正在向其他各领域来扩展推广它的带有重复数据删除功能的StoreOnce备份软件,同时HDS的OEM合作伙伴BlueArc公司则表示它们要引入Permabit Technology公司的在主存储中所掌握的技术。但是数据减缩技术好像在这两家的SAN磁盘阵列设备中并没有得到落实。

Execs公司表示,HP的StoreOnce软件最终会被扩展用到StorageWorks X9000 scale-out架构的NAS产品中。但是HP的StorageWorks的产品市场总监Lee Johns表示,在主存储中引入重复数据删除技术并非是他们当前最紧迫的事情。他说,目前HP的首要任务是将StoreOnce融合到到一个可扩展的多节点集群中,从而打造一款多节点备份设备,同时也会借助HP公司 Data Protector备份和恢复软件以及用于远程部署的虚拟机系统。“重复数据删除绝对会给你的主存储管理带来非常多的复杂因素,这也是我们一直没有去做的原因”Johns说道,“我们一直都想让重复数据删除这种技术真正变得对用户透明而不是增加他们的管理成本。”

Johns表示,大概明年,重复数据删除技术便会延伸到虚拟机环境中了。这样就允许客户在重复数据删除技术的支撑之下,只需要分配一小部分存储空间,就可以将数据复制到HP StoreOnce设备中而无需担心数据量扩大。

HDS的首席科学家Claus Mikkelsen表示,面对重复数据删除这种具体技术,他更想关注一下更大的话题,比如“高效空间利用”,在这个大话题之下,重复数据删除只不过是一个很小的技术而已,其他类似技术包括自动精简配置以及自动精简的RAID等。

大概有95%的我们的阵列使用RAID 5或者RAID 6这两种模式的RAID。在HDS的设备中你几乎很少能够看见使用RAID 0配置了。这是因为我们使用分布式偏移的校验算法。“Mikkelsen说道,“RAID 5或者 RAID 6与 RAID 0相比,在容量上可相差很大”。

对于数据备份与归档,使用重复数据删除技术是很不错的,他说道,但是HDS并未在备份与归档领域中有什么产品或者方案。例如,Hitachi Content Platform这个产品提供了压缩以及单一实例存储的功能,但是在主存储上实现重复数据删除以及压缩,则是个很大的挑战了。“你只要提供了压缩功能,就意味着后续访问时候需要解压缩,而压缩会带来很多的资源开销” Mikkelsen继续说道,“重复数据删除的话,就有很多种方式来实现了。其中一种就是后台处理方式,另一种则是在线处理。”

HDS的首席技术官Hu Yoshida表示,从重复数据删除以及数据压缩的处理方式上便可以看出,“面对这些技术的时候,你估计需要比普通块设备更多的知识和技术来驾驭它,不仅仅是块设备,这些技术更偏向于类文件系统的知识,它们所实现的功能已经位于文件系统这个级别了”他继续说道:“除非上层的文件系统或者应用程序将足够的信息传递给存储设备,而且我也认为这是今后的趋势,那么单靠存储阵列自身来讲,是不能很好的处理了,因为某天你做了压缩或者重复数据删除,那么它可能是这个尺寸。但是第二天你可能会发现,尺寸变了,而且两者并不匹配了。”