论文部分内容阅读
模板匹配是计算机视觉中的一个基础而又重要的研究方向,该技术在诸多领域有着广泛的应用,如通用的物体检测、机器视觉系统中的目标定位、视频监控系统中的目标跟踪、图像拼接和商品细粒度识别等领域。目前模版匹配算法主要集中解决在工业场景下灰度图像的模板匹配问题,但在自然场景中的鲁棒性很差,远远还达不到应用的水平。自然场景下的彩色图像与工业场景的灰度图大相径庭,通常复杂多变不具备可控性。因此,自然场景下鲁棒而又高效的模版匹配方法在学术和应用上仍有待解决。最近学术上出现了一系列基于最近邻场的方法。这些方法大大地提高了模版匹配在自然场景中的表现,但它们对数据有非常强的假设导致它们对大旋转和大形变非常敏感,并且运算复杂度非常高,很难应用到现实场景中。本文基于最近邻场深入挖掘全局语义信息的重要性,提出一种新颖的全局感知多样性(GAD)相似性度量。该度量方法有机地使用全局语义信息监督局部多样性信息,使其能够更进一步地滤除背景和局外点,具有很强的鲁棒性,并且对大旋转和大形变具有不敏感性。与此同时,为了使GAD相似性度量能够达到在实际场景中的运行时间要求,本文精心地设计了一套高效的算法。具体地,采用积分图像快速计算全局语义信息以及利用缓存快速更新局部多样性信息,使得算法的时间复杂度从O(|Ι|·|Γ|)大幅降为O(|Ι|),即运行时间能够提升10~3至10~4倍。为了衡量本文提出的GAD相似性度量的鲁棒性及其对应的算法实现的高效性,拟在四个有挑战性的公开数据集上,将提出的GAD算法和目前学术上最前沿的模版匹配算法进行大量的对比实验和分析。实验结果将表明,本文提出的GAD算法在准确性和效率上都大幅度地优于之前的无形变损失的方法,并且在大旋转或者大形变的情况下相比于带形变损失的方法更具有鲁棒性。此外,在高分辨率(1280×720)的图像上,本文提出的GAD算法计算相似性度量的时间仅为3 ms,接近实时的性能。