论文部分内容阅读
显著目标提取是检测视觉输入中具有独立视觉意义的显著区域(目标),对后续行为分析、语义判断、场景理解等高级视觉任务具有重要意义,是计算机视觉研究领域中经典课题。近年来,随着穿戴式摄像设备的大量应用,基于第一视角视频(EgocentricVideo)的显著目标提取引起研究人员的广泛关注。以时空分析方法为基础,针对Egocentric Video的特点,研究基于第一视角视频的显著目标提取具有重要的意义。本文以多个不同视角、相同时间拍摄的第一视角图像序列为输入,结合时空分析方法研究基于第一视角视频的显著性检测算法和目标检测算法。本文的主要工作如下:(1)研究了基于时空分析的融合显著性算法。针对第一视角视频背景变化剧烈、目标尺度差异明显和视角时变性强的特点,提出一种融合自顶向上的图像显著性、Ego-Motion信息以及目标运动信息来计算第一视角视频中目标的显著性方法。显著性检测实验表明,本文算法针对第一视角视频的显著性检测较IT、GB、SR、CA、AGV算法更优。(2)研究了基于融合显著性的显著目标提取算法。提出了一种融合第一视角视频显著性约束的Canny边缘检测方法,减少了大量背景区域的边缘。根据格式塔规则中的闭合性对编组元进行度量,得到编组元之间的闭合关系,通过分析编组元之间的闭合关系与第一视角视频的显著性,提出度量编组闭合性的目标函数,并利用最小权值最优匹配算法求解目标函数,得到最终目标的闭合轮廓。实验表明,与RRC轮廓编组算法比较,本文算法能够获得第一视角视频中更高质量的运动目标轮廓。(3)研究了基于多视角时空分析的显著目标提取算法。提出一种基于群体检测的显著目标提取的方法。针对第一视角视频,结合时空信息,提出基于注意力线索的瞬时关注度和时空关注度的计算方法,实现目标间相互关系的度量,以及基于自适应K-Means聚类方法的群体检测算法生成群体检测结果,最后可以得出目标(拍摄者)最为关注的目标。本文算法在Party Scene数据集上检测群体的平均正确率达到92.5%。