论文部分内容阅读
计算机视觉是目前重要的研究领域。在计算机视觉中,目标跟踪是其中的研究热点,它被广泛地运用在多个领域,如运动分析、视频监控、机器人导航、人机交互等,在这些众多的应用场景中,目标跟踪算法要求具有很高的鲁棒性和实效性。然而,在现实的复杂场景中,由于常常会出现光线变化、目标之间的相互遮挡、目标之间相互交错以及目标出现运动模糊等不同情况,这使得采集得到视频的情景变得复杂多变,从而想要对多个运动目标进行同时的有效跟踪在目前仍是一项十分具有挑战性的工作。本文针对目前真实环境下目标表达存在的一些难点,包括背景存在光照变化、跟踪目标出现运动模糊等,对目标外观进行建模表达研究;同时,本文针对多目标跟踪时多个目标之间出现的遮挡交互情况,提出基于子图分解的多目标跟踪算法,可以更好地应对跟踪过程中环境光照变化、目标遮挡、外观形变和跟踪漂移等问题。本文的跟踪算法研究工作主要分为两个方面:首先,为了能建立一个真实环境下稳定有效的目标表达方法,本文对光照信息、运动模糊信息的特点进行了分析,提出了复杂背景下的目标外观表达建模方法。本文提出的外观表达模型结合深度信息、光照信息和运动模糊信息采用多层框架来实现对目标的表达,可以适应目标外观形变、运动模糊、光照变化等情况。实验结果表示,基于该目标表达模型的目标跟踪算法能够减少杂乱背景和环境光照变化的影响,目标跟踪成功率平均提高2%以上。其次,针对多目标之间的遮挡交互,我们在处理多目标跟踪的过程中会利用子图分解策略,通过引入不相交连接路径及其概率模型,从而能够在子图分解的过程,有效地将一个图形分割问题转化为最小代价子集分解问题。此外,算法结合多种策略,使得对跟踪目标所在区域的分割更加细致,可以在跟踪的场景过于拥挤或者复杂,或者多目标之间出现相互遮挡情况中,能够更加稳定地跟踪目标,增强了跟踪目标准确率,提高了算法鲁棒性。本部分的相关工作已整理发表在国际会议IEEE ICCE 2016上。本文实验采用了IEEE CS项目中的开源的多目标检测标准测试序列Multiple Object Tracking(MOT)Challenge 2015测试视频图像集。本文提出的多目标跟踪算法在该测试视频集中,与现有表现较好的跟踪算法进行了实验对比。在实验中,本文提出的多目标跟踪算法在适应光照、模糊和目标遮挡交错等情况都具有良好的性能表现,平均的跟踪成功率相比提高了2.8%。