论文部分内容阅读
相对输出图像,输入图像有时来自单一传感器,或者不同传感器,通过融合技术可以将多幅输入图像组合为单幅输出图像,让其包含的场景信息优于任意一幅输入图像。近三十年来,图像融合已成为改善输出图像所包含信息质量的重要技术手段,这也是图像融合技术发展的源动力。本文旨在研究多传感器图像的融合算法与应用,重点以红外和可见光图像作为研究对象。本文首先介绍多传感器图像融合研究背景与意义、多传感器图像融合现状。然后分别从理论和实例两方面详细介绍多传感器图像融合的基本方法,包括基于多尺度变换、基于区域特征、基于区域特征与多尺度变换相结合的图像融合方法。由于这些基本方法存在不足之处,本文通过分析目标在红外图像和可见光图像中呈现的显隐状态,提出红外图像不同区域的数学模型假设和一种自适应的基于窗口加权平均值参数初始化方法,并通过最大期望(EM)求解假设模型参数,实现不同区域的像素聚类与分割并以此为融合决策图。为了让融合的输出图像更容易被人类视觉感知,本文分别基于非下采样轮廓波变换(NSCT)和静态小波变换(SWT)对输入的红外图像和可见光图像进行多尺度分解,获得图像的低频和高频系数。最终依据决策图的指导,融合来自红外图像和可见光图像的低频、高频系数,再进行多尺度逆变换得到融合图像。本文在图像融合的基础上给出了两种红外与可见光视频图像融合算法,并结合视频图像融合实现目标检测与定位。本文对多组红外和可见光图像进行融合实验,并从主观和客观评价综合分析本文提出的融合算法的有效性。聚类分割结果表明本文基于EM的分割算法不仅可以处理多种单幅红外图像,还可以处理不同的视频序列图像,具有一定自适应能力。融合实验结果表明,本文的算法不仅能融合多种单幅红外和可见光图像,还可以融合不同类型的视频序列图像,在提取红外图像目标信息和融合可见光图像背景信息方面优于传统方法。最后基于Matlab设计出图形交互界面,实现融合结果的显示,突出算法的应用性。