论文部分内容阅读
图像融合是指通过特定算法将工作在不同波长范围、具有不同成像机理的图像传感器对同一场景的多个图像信息融合成一个新的图像,从而克服单一传感器图像在几何、光谱和空间分辨率等方面存在的局限性和差异性,使融合图像可信度更高、模糊更少、可理解性更好,更适合人的视觉与计算机检测、分类、识别、理解等处理,从而扩大时空的传感范围、提高观测的准确性和鲁棒性。图像融合是多传感器数据融合的一个重要分支,是计算机视觉和图像理解领域中的一项新技术。本论文集中阐述了图像融合技术的研究背景与现状,对图像融合中的一些基础问题进行了深入分析,并结合微束分析处理领域,对基于内容特征的电子探针图像融合过程中的一些关键问题展开了研究,完成的主要工作和取得的研究成果如下:1、在深入分析Contourlet变换基础理论的基础上,结合Contourlet变换在图像处理方面的成功应用经验,对适应于电子探针图像的Contourlet变换融合方法和流程进行研究,并提出了基于提升小波-Contourlet变换的改进型区域融合方法,能较好的体现来自多源电子探针图像的信息量;2、结合图像稀疏表示与人眼对图像观察的视觉特性,在分析Bandelet变换基本特点与各向异性优点的基础上,提出将Bandelet变换应用于规则形状的电子探针图像融合处理,并通过优化融合规则的选择方法,进一步增强图像融合的信息量;3、在分析Directionlet变换的基础上,针对电子探针图像中的部分强边缘特征图像及多焦距影像,提出基于Directionlet变换的能获取强边缘特征的增强型图像融合方法,进一步丰富了电子探针不同焦距图像的复合处理需求;4、对融合应用进行了技术性与实用性探索。一方面,对基于融合图像的三维重构技术进行了研究,在获取融合图像的基础上,结合DEM成图原理和OpenGL技术优势,提出了基于融合图像的灰度三维重构的优化算法,构建了基于OpenGL的微表面三维影像场景;另一方面,完成基于ARM体系平台图像融合应用构建的基础性研究,从系统的软硬件框架设计、USB驱动的数据采集驱动开发到图像视频数据获取、数据压缩等,都进行了较系统研究。