机房360首页
当前位置:首页 » 数据保护 » 重复数据删除技术为IT提供可靠的保障

重复数据删除技术为IT提供可靠的保障

来源:机房360 作者:赵瑞蕊 更新时间:2010-5-10 15:27:36

摘要:在IT管理者拟定的近期项目采购清单上,重复数据删除产品最受青睐。其中的理由很简单,这些产品提供的效益比琳琅满目的存储产品更多,因为它们降低了数据保护的投入和运营支出,促进了分布式备份操作的整合,并且减少了服务器虚拟化相关的存储费用。

  随着当下各行业业务体系的不断快速发展和增多,对信息资产依赖性逐步加强,信息系统面临的威胁和信息系统的脆弱性也在不断的变化,因此,信息系统数据需要我们更加完善的容灾保护手段和专业技术领域方向的指引。灾难恢复策略、灾难备份系统和灾难恢复预案的适用性等灾难恢复的综合需求,也给IT职能部门高层如何构建一个成熟高效的容灾体系,提出了更高要求和挑战。
  
  如何选取容灾技术,从而达到更高的恢复时间目标(RTO)和恢复时间点目标(RPO),降低灾难给信息系统所造成的直接经济损失和业务影响;如何更加快速、准确、有效的将生产业务数据传输保存至容灾中心,是构建容灾恢复系统的关键,也是值得着重讨论和展开的话题。
  
  在IT管理者拟定的近期项目采购清单上,重复数据删除产品最受青睐。其中的理由很简单,这些产品提供的效益比琳琅满目的存储产品更多,因为它们降低了数据保护的投入和运营支出,促进了分布式备份操作的整合,并且减少了服务器虚拟化相关的存储费用。
  
  预计,数据库中数据(结构化数据)每年的增长速度为25%,而非结构化数据的增加则是它的2到3倍。这么多信息的产生,以及由于政府法规遵从、电子举证等对信息存储期限的规定,使信息的存储容量需求让人难以应对;再加上容量需求增长所带来的存储占地空间、存储设备采购、与存储相关的操作成本和管理成本等的提升,企业中IT部门所承受的压力可见一斑。
  
  数据保护产生的影响
  
  数据的增长成本是很昂贵的,但最大的“信息成本”来自那些出于数据保护目的所产生的大量的数据副本。与需要保护的数据的容量保持同步,已经成为近400名IT决策者在数据保护方面遇到的最大难题。问题是数据保护操作的效率可能会很低—备份应用为同一文件(或略做修改)产生出了许多份备份,而实际上该文件只有少量的数据发生了改变,而且即使该文件没有改变或对企业已经不再有用,也仍然会制作出几十份相同的数据副本并长时间保存。
  
  在这种情况下,很容易使备份流程的效率低下。大量冗余的备份文件堵塞了局域网、广域网和SAN,消耗了企业内部和外部的存储容量。因此,数据保护进程和二级存储系统对容量过剩问题有很大的影响,但也为其优化提供了最明显的机会。
  
  问题的复杂化
  
  在某些情况下,当企业实施新技术来解决其他IT相关问题时,则增加了数据保护的容量。例如,很多信息主管正通过部署服务器虚拟化解决方案来推动数据中心的整合和“绿色”项目,这些解决方案使客户能够在单一硬件上运行多个服务器,提升了使用率。
  
  控制二级存储的成本
  
  数据容量的增长不会减慢。数据保护进程(如备份和复制)更是显著地加快了容量的增长速度。因此,企业采用策略和技术首先对环境进行优化是有道理的,这是不会牺牲性能或带来风险的做法。重复数据删除已经成为一项引人注目的控制存储容量和成本的技术。
  
  不重复存储相同的数据
  
  重复数据删除可识别并消除冗余数据,它可以在文件、块或字节级别上执行。数据查验的粒度越细致,找到并消除冗余数据的机会就越大。在二级存储进程(如备份)中,数据最初在二级存储设备中进行筛选,随后所有写入的数据都会进行冗余查验。相同的数据不会被重复存储,而只是存储与之相同的数据的指针,这将使占用的空间大大减少。
  
  无论采取什么方式,重复数据删除的结果都是能够衡量的。关键的衡量指标之一就是容量缩减的程度,即缩减比。类似10∶1或10倍的缩减,表明了企业能够缩减备份数据的规模和程度。
  
  在以往的技术中,我们通常运用优化网络数据传输和压缩精减数据等方法来达到数据快速传输到容灾中心的目标,而忽略了在当前现实生产系统中存在着大量重复和冗余的数据,如果能将这些大量的重复数据进行删除和削减,再进行项目远程容灾站点的复制传输,将会极大的提高容灾传输线路的效率,而且极大的降低了传输的时间,达到更高的RPO指标。

  责任编辑:Cat蕊

本文地址:http://www.jifang360.com/news/2010510/n33796122.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片