论文部分内容阅读
视频目标跟踪是计算机视觉的一个研究热点,已经在监视、机器人、医学图像、以及人机交互等领域有着许多应用。尽管学者们在这个研究课题上做出了大量努力,但是,严重的遮挡、剧烈的姿态、尺度和光照的变化、杂乱的背景、多变的视角等引起的目标物体的表观变化使得视频跟踪依然是一个极具挑战性的难题。研究发现,子空间表示对于目标物体的平面内旋转、尺度和姿态变化以及光照改变具有鲁棒性并且易于计算,所以许多基于子空间学习的视频跟踪算法被相继提出。这一套算法通过构造目标所在的低维子空间,以得到能够在线地适应目标物表观变化的表观模型(appearance model)。但是,对于视频序列中的目标物来说,这些算法都不能对它们整体上的结构进行限制,从而无法准确地把握目标物体表观的整体子空间结构。最近,一些新的基于低秩性的鲁棒子空间学习模型被相继提出,例如RPCA. LRR等。它们能够从受污染的观测数据中恢复出其本质的低秩子空间结构。但是当前的这些低秩模型无法直接用于增量式的视频处理。受到以上讨论的启发,本文提出了两种基于增量式低秩学习的视频跟踪算法。首先,本文基于增量式低秩特征学习提出了一个新的鲁棒的视频目标跟踪算法。该算法实际上将Robust PCA(RPCA)扩展到了在线学习领域。与之前的方法相比较,该算法不再从受污染的观测数据直接学习子空间,而是增量式追踪目标的低秩特征并且通过稀疏误差项检测遮挡。然后,本文又提出了一个新的子空间学习方法以解决鲁棒的视频目标跟踪问题。该算法增量式追踪最优低秩投影,该投影的列向量是其所在的隐藏特征空间的一组冗余的基底,并将观测数据直接作为该投影的系数。追踪到的最优投影的低秩性能够准确的恢复全局特征空间的本质低维结构,从而提升了捕获表观变化的准确率。在多个具有挑战性的视频序列上的实验结果表明,本文提出的跟踪算法能够战胜遮挡、姿态、尺度和光照变化、非刚体变化、平面内旋转、背景混杂等视频跟踪的诸多难点,足以与当前先进的跟踪算法相抗衡。