摘要:如果用户计划在主存储上部署重复数据删除,首先要明确重复删除的内容。用户需要分析自己的数据,主要对一些数据量变化不大的应用程序或者性能不受影响的数据库进行重复数据删除。在部署之前,需要做一下性能影响方面的测试。 |
无论是主存储还是数据备份,重复数据删除技术都是先扫描存储的数据,然后将原来已经存储过的数据块或者文件用指针代替。
在数据备份中,重复数据删除可以节省大量的空间,重复删除比率可以达到20:1,而在主存储设备上进行重复数据删除并没有非常明显的效果,重复删除比例一般是2:1。
部署主存储重复数据删除的注意事项
如果用户计划在主存储上部署重复数据删除,首先要明确重复删除的内容。用户需要分析自己的数据,主要对一些数据量变化不大的应用程序或者性能不受影响的数据库进行重复数据删除。在部署之前,需要做一下性能影响方面的测试。
由于用户的环境各不相同,所以在部署之前,一定要仔细考虑主存储重复数据删除带来的影响。能否有效的执行重复数据删除在很大程度上取决于原来的系统,包括:
跟应用程序的结合度
使用频率
数据变化频率
处理器电压,存储配置和网络带宽
延迟有时也会影响重复数据删除。
由于每个数据块或者文件都需要检查,重复数据删除会存在性能问题并且会占用很多的系统资源。跟数据备份相比,延迟对主存储的影响更大。因此,在主存储上部署重复数据删除一定要注意性能问题,大部分时候不得不牺牲存储的效率。
主存储重复数据删除其他选择
NetApp公司在主存储重复数据删除领域有其他的解决方案。一些厂家将重复数据删除跟其他的一些功能结合在一起,例如内部数据压缩以减少数据量,自动识别数据流中的重复数据。Storwize公司采用实时压缩技术,而Ocarina Networks公司是使用扩展压缩技术来识别重复数据。
重复数据删除技术在虚拟系统领域也非常受欢迎,因为虚拟系统中很多的实例都是重复的并且很少变化。其他的虚拟机中C:里面的数据大部分都是相同的。
通常讲,应用程序或者数据文件中相同的部分越多,越适合重复数据删除。CAD文件和图片也非常适合重复数据删除,因为它们很少变化。
在一个数据经常变化的数据库中进行重复数据删除是不明智的。它通常会导致活动明显增加,系统资源负载过高等问题,而且数据库的文件过小会导致无法有效的识别标准的数据块。