论文部分内容阅读
图像融合就是采用一定的算法,把工作于不同波长范围、具有不同成像机理的传感器对同一场景的多个成像信息融合成一个新的图像,从而使融合的图像可信度更高,模糊较少,可理解性更好,更适合人类视觉及计算机检测、分类、识别、理解等处理。随着传感器技术的迅猛发展,单一的可见光模式逐渐发展成多种传感器模式,其中有很多传感器无法同时清晰获取不同焦距的图像。以光学显微镜为例,显微镜都有固定的景深,在场景纵向变化范围较大的情况下,各个层面上的信息难以同时得到清晰的显示。通常的做法是获取某一场景的一系列图像,由于获取图像之间的焦距不同,所得到的图像序列信息是互补的,而任何一幅图像都不足以说明整个场景的信息,分别观察各幅图像既增加了图像的存储消耗,费时费力,又给后续工作带来诸多不便。多焦点图像融合技术,就是通过对多幅各层面分别聚焦的源图像进行处理,得到处处聚焦的融合图像,使其能够较好地表明源图像中各种细节,对于显微镜来讲就相当于扩展了景深,更加有利于后续的处理。多焦点图像融合在民用数码、科研和军事领域都有着广泛的应用。本文在综合运用小波分析、遗传算法和形态学方法的基础上,提出了两种多焦点图像的融合方法。第一种方法将图像的空间域质量评估方法引入到融合算法中。算法首先将图像分块,将质量评估参数作为图像块聚焦与否的评价标准,选择聚焦的图像块融合成结果图像,算法中利用了整数遗传算法来优化块的大小,以期达到最优的融合效果。第二种方法将图像进行小波分解,再利用小波分解系数进行图像聚焦区域的检测,最后将聚焦区域提取出来,融合成结果图像,其中遗传算法用于调整聚焦区域检测中的相关参数。以上两种方法都是基于区域的多焦点图像融合方法。基于区域的图像融合立足于像素级图像融合,是朝着特征级融合发展的一个新的突破。相关实验的结果表明,相比于传统的Haar小波融合方法和形态学小波融合方法,以上两种方法都有很好的融合效果,尤其当获取的原始图像发生局部非刚性变换时,本文提出两种方法的优势更为明显。