三、重复数据删除产品的去重比率
真要计算出你的数据的去重比率,并非易事。厂商所公布的去重比率其实是在一种特定条件下的人为控制因素介入之后的结果。“有厂商竟然夸张的声称可以达到400:1的比率,这种情况基本上你永远无法遇到。” “假设你对一个由500个文件组成的数据集进行去重操作,为了便于备份,每个文件1GB大小。” EMC的CTO Dan Codd说道,“第二天,有一个文件变化了,你对其进行了去重操作,这样的话,备份相当于只备份了这个变化的文件,那么此时的去重比率是多少呢?你可以说它是500:1”。
对于同一个重复数据删除过程,其结果随着你计算式所使用的时间段的不同而不同。“结果可能是40:1甚至20:1。因此这个指标仅有参考意义。
四、火星舱重复数据删除技术优势
火星舱提供数据块级重复数据删除功能,重复数据删除是在内部进行的,可根据文件系统的大小进行调整,不需要使用特殊的存储阵列来对数据进行重复删除。火星舱在数据集级上的适用性表明你只需对包含冗余数据的数据集进行重复删除,而不用牵扯到其他的数据集。由于它是内部重复数据删除功能,因此增加处理核心和内存就可以提高重复数据删除的速度。
目前数据备份的需求主要在数据中心、信息中心,而数据中心、信息中心需要备份的主要是数据库数据,并且数据中心、信息中心的瓶颈不在于网络带宽,但重复数据删除引擎通过检查冗余数据中的唯一重复特征来判断是否可以将冗余的部分存储为一个符号链接,从而降低数据对存储空间的需求。这个过程是一个极其消耗CPU资源的过程。所以一般源端的重复数据删除不能很好的运行在数据库或者其他事物性系统上,因为它会在主机端增加处理负载,可能高达25%。当这些类型的应用在目标端进行重复数据删除时就不会产生那种负载了。因此火星舱的重复数据删除无需担心由于重复删除处理使CPU 负担加重而导致备份服务器和二级存储目标之间出现瓶颈。
对于远程备份而言,火星舱是通过自己专有的远程传输技术来达到数据压缩、稳定传输的目的。而如果仅仅只考虑重复数据删除技术,会遇到网络断线数据重传等问题。