论文部分内容阅读
目标跟踪一直是自动驾驶、智能监控、人机交互等领域的核心技术。随着人工智能时代的到来以及计算机硬件设备的高速发展,目标跟踪作为计算机视觉中的一个重要分支,已经成为国内外研究人员的重点研究对象。而设计一种既能较好的应对各种环境变化挑战,又能达到实时跟踪效果的算法,一直是该领域的难点。本学位论文以上述目标为指导,基于相关滤波,旨在研究出高效、实时和鲁棒的跟踪算法,并主要从算法模型、目标特征表达和响应图融合策略三个方面入手进行了研究。本学位论文的主要工作和创新点如下:从构建算法模型出发,基于核相关滤波器KCF建立了一个全局块与局部块的协作模型。该协作模型的跟踪结果依赖于全局滤波器和两个局部滤波器之间的协作交互作用,局部滤波器为目标的最终位置提供一个初始估计,再通过全局滤波器确定最终结果。在该协作模型的基础上,提出了一种基于有效局部块来指导模型更新的方法,并给出了有效局部块的评价标准,该方法能够较好的应对部分遮挡导致的模型漂移问题。同时,该模型通过分析前后两帧局部块之间的距离变化来估计目标的尺度信息,并根据存储的自重新初始化滤波器以来所有帧的尺度因子的均值来判断是否对当前帧目标尺度和滤波器的大小进行更新,解决了因目标尺度变化带来的跟踪失败问题。该协作模型总体性能优于其他几个基于KCF的改进算法,且跟踪速度达到32帧/秒。从提升目标表征能力和融合响应图策略出发,提出使用四种不同的视觉特征(梯度方向直方图HOG、颜色名称CN、强度和显著性特征)来表征目标对象,并针对这四种特征,提出了一种响应图融合策略来提高不同场景下的跟踪性能。该融合策略通过使用峰值旁瓣比PSR对每个特征响应图中的响应值进行加权,从而过滤各个响应图中的噪声。再对处理过的四个特征响应图进行两两交叉融合,得到六个不同的响应图。对此六个响应图进行最后的加权融合,得到最终改进的、置信度更高的、噪声较少的响应图。将所提出的方案集成到背景感知相关滤波器BACF当中构成本文的多特征在线学习的相关滤波目标跟踪算法MFOL。该算法的跟踪精度优于当前众多先进的相关滤波类跟踪算法,同时能够较好的应对各种环境变化挑战,有较好的鲁棒性,并且跟踪速度达到21帧/秒。