论文部分内容阅读
图像融合技术是利用多种传感器所采集到的多幅同一场景的图像中的互补信息,将其融合成一幅能更全面描述场景信息的融合图像,以便于人眼视觉观察和机器学习。多聚焦图像融合为图像融合领域的主要方向之一,它涉及信息感知学、信号处理、机器学习等多个学科,并已广泛用于数码图像、军事、监控等多个领域。本文主要研究基于区域的图像融合算法。首先,针对目前空间域算法存在无法对小面积的聚焦区域进行准确识别提取情况,本文提出了一种梯度聚焦度度量和广义随机游走相结合的图像融合算法。该方法能够准确地对小面积的聚焦区域进行识别和提取,并在融合图像中不会存在边界效应,提高了融合图像的质量。其次,针对目前空间域的基于区域的融合算法容易对源图像中的平滑区域的聚焦程度产生误判的情况,本文提出基于边缘聚焦检测(Edge-based focus-region detection,EFD)与引导滤波(Guided filtering,GF)的图像融合算法。该算法能避免聚焦区域中平滑区域的影响,得到了更准确的聚焦区域,将源图像中更多的有价值的原始信息传递到融合图像中,提升了融合图像的质量。同时,该算法能增强融合图像的空间连续性,提升了融合图像的视觉感知效果。最后,针对传统的非下采样剪切波变换(Non-subsampled Shearlet transform,NSST)域融合算法在融合过程中损失较多的源图像中的信息,本文提出了基于聚焦区域检测的NSST域的子带系数融合规则。与传统的NSST域的图像融合算法相比,该算法充分利用的各个层级及各个方向的子带图像之间的相关性,从整体全局的角度考虑,融合后的图像中最大限度地保持了源图像中有价值的原始信息,提高了图像的互信息及融合算法的容错性。同时,为了进一步减少基于变换域方法在融合过程中造成的信息损失,本文提出了一种将变换域算法与空间域算法相结合的基于NSST聚焦度度量的图像融合算法,该算法利用空间域图像融合算法与变换域图像融合算法的优势,提升了融合后的图像的聚焦度,并具有很好的空间结构特性。