论文部分内容阅读
图像配准在图像处理、计算机视觉、人工智能、机器学习、医学图像、国防科技和地质勘测等领域都有着广泛的应用前景。其中,基于特征点的配准技术以其精度高,匹配表现稳定,鲁棒性强和适应性高的特点被普遍采用。通用并行计算近年来得到了快速发展,其中基于NVIDIACUDA架构的GPU技术发展迅速,在需要密集型数据处理领域得到了广泛关注。本文首先介绍了NVIDIA GPU的发展情况,重点介绍了CUDA软硬件体系架构,包括CUDA的存储模型、CUDA的软件体系、CUDA的编程模型和CUDA的硬件执行;重点介绍了Host端代码(CPU运行)和Device端代码(GPU执行)等异构系统模型。论文对SURF算法原理进行了详细讨论,由于SURF算法中特征点提取及描述子生成过程,具有着较高的并行处理可行性,本文对SURF算法在CPU+GPU异构系统上的加速实现进行了研究,利用CPU负责内存分配和过程控制,利用GPU负责并行部分核函数的执行。论文重点研究了SURF算法中的彩色图像灰度化、积分图像建立、Hessian行列式求取、非极大值抑制、特征点主方向确定,以及生成特征点描述矢量部分在GPU上的核函数实现。论文最后对计算机生成的模拟图像和实际拍摄图像进行了仿真实验,针对存在平移、缩放、旋转,以及各种复杂场景的实际图像,通过在GPU异构系统上实现SURF算法,来进行特征点提取和特征点描述;然后在CPU上进行特征点匹配,将配准点代入仿射变换模型,以最小二乘法进行参数估计;最后利用估计参数进行图像拼接。并对GPU和CPU两个系统中实现SURF算法过程的时间进行了比较。实验结果表明,本文利用GPU异构系统实现的SURF算法对图像配准达到了亚像素精度,最后拼接效果令人满意,且SURF算法过程的运行时间较CPU系统实现大幅减少,平均加速比为11~14倍,本文的研究为图像拼接的实时处理奠定了基础。