论文部分内容阅读
作为计算机视觉领域中的一个重要研究方向,视觉目标跟踪技术目前已在自动驾驶、城市交通、人机交互、AI(Artificial intelligence)医疗等众多领域得到了广泛的应用。但是,由于实际场景中背景复杂以及目标自身变化不确定等诸多不定因素的存在,使得多数传统跟踪算法均不能有效地实现目标转态的估计。同时,当前的基于深度学习的算法虽然实现了高精度的目标跟踪,但实时性通常不够好。由此,跟踪的关键在于如何在保证执行效率的前提下,自适应地应对跟踪过程中目标外观的变化和被遮挡问题。为解决上述问题,本文深入研究了基于卷积神经网络和传统低层图像特征提取方法,提出一种基于深度特征共享的关键点匹配与跟踪算法,将包含图像语义信息和空间结构信息的高层卷积特征与传统具有高分辨率的低层特征算子进行结合,在提高了算法表征目标的能力之外,能够实现对目标的快速精确定位。以下是本文主要研究内容及创新点:(1)跟踪框架的创新突破了目前多数跟踪算法仅基于传统人工设计特征或基于高层深度图像特征来完成目标跟踪任务的框架。首先,将从离线网络中提取的深度图像特征进行共享,进而使用特征点匹配算法共同完成对目标的检测过程,再与算法的跟踪模块相结合,输出最终目标位置。这种新型的跟踪框架使得算法不仅在目标的建模方式上获得了高层语义特征与低层高分辨率特征的多角度全面描述,且从跟踪模型的选择上得到了检测式跟踪与传统轨迹跟踪的双重保障,为实现长时间稳定跟踪打下了坚实基础。(2)引入一种自适应模板更新机制设计了一种基于目标区域特征点变化趋势进行稀疏学习的模板更新策略,可在避免引入背景杂波等错误信息的基础上,根据目标自身外观信息实现模板的自适应更新。该机制使得算法对于目标外观的差异性变化会有更强的适应性,且避免了逐帧更新带来的高复杂度、高计算量以及易产生漂移的现象。(3)提出一种抗遮挡处理机制通过对目标区域合理分块,并结合连续多帧图像中每个子块的信息变化情况,提出一种基于分块互相关的抗遮挡处理机制,能够快速准确地完成遮挡状态的判断及处理,从而解决了长时间跟踪中可能存在的目标部分遮挡或完全遮挡而导致的目标丢失问题。