论文部分内容阅读
当今企业对信息的存储需求正在飞速地增长,信息的采集与处理已成为决定企业生存与发展的关键技术因素之一。与此同时,信息系统中的数据的可靠性和安全性也受到了越来越多的重视,其中数据容灾系统就是保障数据安全的一种有效技术手段。特别是911恐怖袭击以及东南亚海啸,以及不久前发生在中国的南方的雪灾和汶川地震,这些灾难性事件使得企业有一条共同的主线,那就是建立异地容灾系统以保证业务的连续性。容灾系统是根据当前的技术发展趋势及保证数据安全和业务连续性而提出的。因为急速增长的数据量给灾备系统带来的最直观的问题是存储空间不足,同时也给系统的处理能力、数据传输带宽带来了巨大压力,所以为了保障容灾系统高效稳定地运行,需要建立一个存储容量优化机制来减少数据对存储容量需求。本课题以“基于重复数据删除技术的容灾系统的研究”为题,在深入研究容灾备份中存储容量优化技术的基础上,对重复数据删除技术进行了一定的技术改进,实现了高质量的存储容量优化,并将该技术有机地应用到容灾备份系统中构建并实现了一个论文作者单位的高效且较稳定的容灾原型系统,它可以为用户应用提供安全的存储服务和实用的性能保证。本文结合现今企业海量数据的增长给容灾备份系统带来的压力,重点研究了容灾备份中存储容量优化技术的应用涉及到的关键技术,主要完成了以下研究工作:(1)建立了安全高效的重复数据删除策略。深入研究了重复数据删除技术,对现有的重复数据删除技术进行补充和改进,进而建立了安全高效的重复数据删除策略。(2)研究了重复数据删除技术基于MD5的指纹算法。目前利用指纹算法实现指纹定位,占有系统资源大始终是重复数据删除技术应用的瓶颈。本文通过对MD5指纹算法的改进,既避免占用过多的系统资源,又大大降低了算法的运算强度,同时提高了算法的运行速度。(3)研究了当前流行的网络存储技术和现有容灾系统模型。在现有模型的指导下,提出一种整合了重复数据删除技术的容灾系统,建立了一个高效稳定的容灾系统。(4)测试了该容灾系统的主要功能和存储性能,并在高职院校中加以实现,实验结果表明该系统工作正常,其技术设计方案是可行的。上述的这些研究工作对于小型容灾系统的构建将会有一定的实际参考价值。