专家博客 飞康重复数据删除技术的复制模式

笔者在过去几周采访了多家重复数据删除厂商。虽然大多数访谈内容都是关于重复数据删除领域的泛泛而谈,但是此次采访我们主要集中在复制过程上。 在随后的15个星期里,我们将详细披露这些采访的部分内容。如果笔者不点出具体厂商的名称并且仅从一般性角度讨论问题可能会更容易一些,但笔者认为那样做对实际技术用户没有太大的好处。 因此,我们会点出厂商的名称并对读者的评论进行分类。第一波采访的重点是重复数据删除技术的复制部分。

我们首先采访的厂商是FalconStor。用户执行重复数据删除的方式将影响到用户复制数据的方式。FalconStor将其技术称为共行重复数据删除技术。简单地说,就是数据先被传输到磁盘,然后再进行重复数据删除处理,但是他们可以在每一次备份传输完毕后开始进行重复数据删除处理。

FalconStor的解决方案在默认设置下可以同时进行8条线程的重复数据删除工作,具体的线程数量可由备份管理员根据备份应用软件的处理能力和数据被交付给应用软件的速度进行上下调整。他们还可以考虑到基于策略的重复数据删除设置,某些特定的任务可以同时进行,其他的任务则完全是后期处理,而且有一些任务不能进行重复数据删除处理。 当重复数据删除处理开始后,数据的某个特别部分就会被识别出来,那部分数据是保存在本地的,然后通过WAN被复制到另一台远程FalconStor设备上。

FalconStor声称其重复数据删除解决方案的扇入比率为150比1,因此用户可在本地备份远程办公室的数据,然后将那些数据复制到一台大型设备中。他们将提供WAN优化重复数据删除方案。 例如,你拥有A和B两个用来保护数据的本地站点,然后将数据复制到另一个灾难恢复站点进行备份。你先将A站点的数据发送到灾难恢复站点,然后将B站点的数据发送到灾难恢复站点,但是B站点中的某些数据与A站点已经发送过的数据是一样的。 WAN优化重复数据删除解决方案就可以告诉B站点不要发送灾难恢复站点已经拥有的数据。必须指出的是,这是B站点与灾难恢复站点之间的单一通讯。 B站点并未与其他站点进行数据核对,只是跟灾难恢复站点进行了通讯。除了WAN优化重复数据删除之外,FalconStor还在软件中内建了一项类似于服务质量的功能,这项功能可以让用户设定仅使用特定比例的可用带宽来进行重复数据删除处理。 使用率可根据时间或可用带宽的数量进行调整。

最后,FalconStor的解决方案还支持OST(赛门铁克NetBackup为高级备份设备开发的API),用户可以通过NetBackup界面更好地控制重复数据删除和复制过程。这样也可以让NetBackup商店减少参与管理重复数据删除和复制过程的步骤的数量。