应用技巧:如何确保企业非数据中心资源连续性

    站在企业生存的角度上看,存储在数据中心外部的数据在重要性上并不亚于集中化存储的数据。下面我们将提供一些技巧,帮助你备份并存档这样的数据。 
  
    战略研究公司Santa Barbara近期的一份研究报告显示,超过60%的企业数据存储在数据中心的外部,而这里面又有不下75%的数据没有受到应有的保护。这份报告强调,这是十分危险的做法,因为对于企业生存来说,边缘数据和管理更加完善的集中化数据是同样至关重要的。Signiant, Inc.的市场部副总裁Randy Corke,向我们提供了一些备份和存档边缘数据的策略,有了这些策略的帮助,IT专业人员终于可以睡个安稳觉了。 
  
    TechRepublic:非数据中心数据未受保护问题的普遍性如何?
  
    Corke:拥有上百个远程站点的企业通常有超过50%的备份失效率。最实际的问题是他们无从了解哪个远程备份在工作,而哪个远程备份失效了。这样的不确定性让IT专业人员无法安眠。他们明白,未受保护的数据过多造成的直接结果是,公司运作无法正常实行。 
  
    TechRepublic:如此高失效率的根源在哪里? 
  
    Corke:很多公司没有财力在每个远程站点布置IT员工,因此它们让管理人员甚至是市场、销售人员来完成这些工作。这显然不是他们的本行,因此备份过程中的问题可能在短时间内无法查明。另一个原因是数据卷正大量的增长。差不多一个月以前发表的一份California大学的信息管理及系统报告指出,从1999到2002年间,数据存储量暴涨了近114%。数据卷可能突然增长到员工无法在3小时内完成公司分配的任务的程度。
  
    TechRepublic:那么公司如何获得远程数据的控制权呢?
  
    Corke:理想化的方法是对这类数据进行中心化的控制。不要再依赖远程区域单独备份或是管理自己的数据,因为这种方法有太多的移动成分。获取数据集中控制权的第一步是简单化和标准化远程数据的管理方法。
  
    目前凸现出的一种趋势是整合备份(consolidated backup)。和使用单一备份对每个站点进行备份相反,企业只需要在总部或者区域中心(因为有些企业有许多站点)整合数据。另一种方法是对远程站点的数据执行信息生命周期管理。如果远程站点上有超过90天未被访问的数据,统计表明这样的数据只有2%的几率被再次访问,那么为什么还要将这些作用不大的数据放置在远程站点上并进行备份呢?通过附加生命周期管理,将数据移动到中心站点或是数据中心,并将它们存储到更加廉价的ATA硬盘上,同时它们对远程站点上的用户依然可用,然而,你却不需要在远程站点上使用价格高昂,性能强劲的磁盘空间,何乐而不为呢?
  
    TechRepublic:执行整合策略的关键因素是什么?
  
    Corke:我认为有以下5点关键因素:
  
    1. 远程网络的多样性
    2. 文件卷大小
    3. 安全性
    4. 用来管理远程数据的中心策略
    5. 远程应用程序的接口
  
    市场上有林林总总的技术能帮助你在广域网或互联网连接中高效地移动数据。但是当你处理远程站点的时候,你可能发现不同站点的网络连接类型有所不同。并不是每个站点都使用T1或T3线路连接,某些站点也可能使用128K速率的专线链路。你需要清楚地了解远程站点上使用的网络连接类型,从而确定获得远程数据控制权的最佳途径。
  
    同样,文件大小也相当重要。在远程站点的数据传输中,大量小文件和少量大文件在CPU负荷上是不同的。因此你应该寻找一种高效移动数据的产品,它应该能够检测哪些数据发生改变并且移动了改变的数据,这样便节省了系统资源。在某些情况下,这意味着移动部分文件,而不是整个文件。
  
    安全性是另一个需要研究的领域,特别是当你开始从远程站点将数据移动到公司数据中心或中心站点的时候,你尤其需要关心数据的安全性。有2个需要你关注的领域:节点认证和数据加密。节点认证技术确定发送节点和接收节点计算机是绝对的,100%的认证过的。这种技术使用数字证书来确定数据流在传输过程中是无差错的。数据加密技术则在传输中使用一些加密的方法来保护数据。最好的数据加密工具是AES级别的。它是3-DES之上的加密级别,3-DES曾是最经典的加密技术,不过还是被AES代替。
  
    开发和执行中心策略是远程数据集中化管理的另一个重要因素。你并不希望为每一个站点建立单独的进程来扫描数据以发现变更,获得数据,加密数据,并将数据发送到公司总部。你需要的是一种能在中心站点设置的技术-使用规则和时间表-并将这些应用到所有的远程站点。这种初始化设置的方法较为简单,而且更容易在业务需求变化时进行更改。与此同时,你还能大量的减少或排除边缘站点的IT人员部署。因为你有能力在中心站点上控制远程站点的数据,因此将减少大量的资金投入。
  
    策略中最后一个重要的环节是与远程站点的应用程序交互的能力。正如你能想像的那样,不是每个站点都使用同样的应用程序。你的公司可能部署了一个销售区域,一个生产区域和一个出货区域,那么它们很可能使用不同的应用程序-而所有的数据都需要管理、备份和存档。因此你需要与所有这些程序交互的能力。你应该能够触发这些应用程序提取应该做备份数据。
  
    没有能够承担所有任务的技术。你选择的技术将最终受业务需求的驱策。例如,如果你的业务需要周期性地从远程站点向中心站点移动数据-或许是每晚的整合备份-那么你最好选择一款在周期性数据迁移方面比较强的产品。马上想到的产品就是Signiant的Mobilize和EMC的OnCourse。如果你的业务需要连续性的数据迁移以保持业务连续性-也就是说一个远程站点崩溃了,要立即使用中心站点的现存数据对其进行恢复-那么连续性迁移技术将是你最好的选择。不错的连续性备份解决方案包括Legato的RepliStor,NSI的DoubleTake,以及Veritas的Storage Replicator。
  
    TechRepublic:您还有其他关于无保护远程数据的建议吗?
  
    Corke:存在于远程站点的无保护或无管理数据正日益成为大企业的五大心病之一。它不是一个小问题,我们在任何时候都不能姑息它。最近2年出现了许多新技术,让公司能对它们的远程数据进行中心化的控制。它们自动化远程进程,并在中心站点聚合数据,因此你可以摆脱远程站点多个单独进程的纠缠。通过使用中心控制、整合的方法,你将能解决许多棘手的问题。