论文部分内容阅读
视觉跟踪是估计图像序列中视觉目标的完整轨迹。跟踪过程中只有初始帧目标位置已知无其他先验知识,通常跟踪系统由初始位置、外观模型、运动估计模型和目标定位模型组成。由于视觉跟踪在机器人、自动驾驶、智能监控、增强现实和相机自动聚焦等领域有大量的应用,因此成为人工智能与计算机视觉领域最重要的研究课题。同时涉及到多学科的交叉融合,自然得到众多学者的关注。尽管存在一些优秀的视觉跟踪算法,但是在复杂场景里执行精确而鲁棒的视觉跟踪,依然具有挑战性。主要源于场景中存在光照变化、尺度变化、遮挡、形变、运动模糊、快速运动、平面内旋转、平面外旋转、出视野、背景杂乱和低分辨率等挑战因素。因其会直接导致目标外观发生严重变化,所以性能提升遇到瓶颈。本文基于这样的背景,研究以相关滤波为框架的鲁棒视觉跟踪算法。研究内容与贡献如下:第一,提出了相关滤波和候选样本筛选策略的视觉跟踪算法。该算法通过半径定义较大搜索区域能够充分捕捉被遮挡目标余留下的外观信息,有效避免了滑动窗口局部搜索情况下难以处理目标被遮挡而引起的外观变化。用候选样本筛选策略从较大搜索区域剪裁出的大量样本里筛选出可能是目标区域的候选样本,然后相关滤波被用来分别计算这些样本的空域相关响应,以此估计目标位置。实验结果表明,提出的算法能够有效地处理遮挡场景引起的漂移问题,同时也能够应对快速运动、背景杂乱、平面内旋转、形变、运动模糊、平面外旋转、出视野等挑战场景。第二,提出了局部与全局区域相关滤波模型耦合的视觉跟踪算法。当遮挡发生时,由单个相关滤波构造的运动估计模型往往较为敏感,表现出跟踪器漂移而不能够正常恢复,进而出现跟踪失败的现象。本文依据目标本身的内部完整结构,将局部和全局区域相关滤波模型之间加入稀疏约束形成耦合的模型。该模型既能容忍局部区域模型的异常值又能利用视觉目标被部分遮挡时余留可视区域的外观信息,从而缓解了跟踪器的漂移风险并提高了跟踪器的鲁棒性。该算法除了能够处理遮挡问题之外,对光照变化、尺度变化、运动模糊、平面外旋转、背景杂乱等属性场景同样有效。第三,提出了基于相关滤波和分层深度特征的自适应视觉跟踪算法。分层深度特征的底层具备人工制作特征的分辨率高特性,同时还有高层的语义特征。对于严重的外观变化表现出强大的不变性,具有提高跟踪鲁棒性的能力。本文使用底层、中间层和高层共五层特征信息分别表达目标外观。每一层学习一个相关滤波,通过计算不同层的相关响应便可获得不同层的映射位置。然后自适应加权不同层的映射位置就可以获得目标位置。通过与当前较为先进的算法进行实验比较,表明该算法利用底层、中间层和高层共五层深度特征显著提升了精确性和鲁棒性。第四,提出了基于交互融合分层深度特征策略的视觉跟踪算法。采用分层深度特征交互融合策略使得各分层特征相互强化和特性共享,以实现精确性和鲁棒性有效统一的相关滤波视觉跟踪框架。使用双线性插值通过上采样将底层、中间层和高层共五层视觉特征图调整为固定尺寸。然后五层深度特征通过两个阶段交互融合,达到共同拥有纹理和语义信息的外观模型。由运动估计模型便可有效估计目标位置。实验结果表明,该算法利用五层深度特征通过两个阶段交互融合构建的视觉外观模型,达到了精确性和鲁棒性的有效统一,并且重叠成功率有一定程度的提升。