重复数据删除技术的三种发生时间

  如果速度是如此重要的话,那么就应该考虑选择其他像持续数据保护(CDP)这样以实际原始格式进行数据保存的解决方案。大多数这样的解决方案允许你从数据的备份副本启动进入系统,消除了从恢复流程中的数据传输。

  灾难恢复

  正如前面所说,post-processing一个最大优点就是可以在数据写入以及备份完成之后进行重复数据删除。post-processing 不那么依赖于处理能力,但是它却带来了一些在灾难恢复处理方面的挑战。Post-processing流程必须在备份数据复制完成之后进行,取决于系统架构和数据量,这就需要耗费很长的时间。虽然没有几家厂商报告他们post-processing的重复数据删除技术时间是多少,但是我们估计大约为每TB数据需要1到3个小时,数据量的不同时间也有很大差异。

  这里一个重要的测量标准就是post-processing对灾难恢复复制窗口的影响。如果要求在一个设定窗口中将数据传输到离线站点中,那么你也许没有足够的时间来完成备份工作、运行重重复数据删除技术流程、然后复制数据。如果离线保护很重要的话,那么缩减的复制时间就迫使用户具有很高的带宽。

  即使没有一个需要进行灾难恢复的设置窗口,你自己也是希望能够在下一次备份完成之前更好地完成工作。如果你花了7个小时来备份10TB的数据,那么接下来就要化15个小时来分析和重复删除这些数据(假设重复数据删除过程每小时处理1.5TB数据),最后你只剩下2个小时来启动下一个备份窗口将所有数据复制到远程站点中。而且如果用户无法正常发送数据的话,你甚至没有时间对其进行纠错。

  在inline处理过程中,数据进入应用的时候就启动了复制流程,这样即使备份窗口所需的时间翻倍,因为你开始复制较早,所有你的净备份处理速度实际上更快一些。虽然这也许不是你作出决策时考虑的唯一因素,但确实需要你认真考虑。

  重复数据删除并非首要需求

  重复数据删除技术并不是所有解决方案的重点。根据你的环境来说,现在容量问题可能更重要一些,还有能源管理存储、数据保留、紧密的磁带集成以及通过iSCSI从备份副本中启动等等。所有这些都可能是关键因素,如果你的数据中心存在这些因素,你就必须谨慎地考虑。

  总结

  当你在inline以及post-processing中作选择的时候,了解你需要怎样的备份性能、你能够提供怎样的备份性能、你需要在多短时间内创建备份数据的灾难恢复副本、以及是否有其他因素比重复数据删除更重要等等这样问题都是非常重要的。

  以上就是对重复数据删除技术的三种发生时间的简单分析,希望对大家会有所帮助。