论文部分内容阅读
视频的有效表达是识别行为的关键与难点。提出了一种改进的特征图串的视频表达方法,在动态规划框架下,利用子模优化方法和图匹配技术实现了行为的识别。首先,利用近年来被广泛应用的时空特征点探测器获取视频序列中的关键点;接着引入子模优化方法完成视频在时域上的划分;然后在每个时域区间内以关键点为节点形成图结构,使得行为视频的特征表示转化为有序的特征图串;最后基于重加权随机游走的图匹配方法和动态时间规整实现成对视频的匹配与对齐。通过2组公开数据集(KTH和UT-interaction)上的实验及与其他方法的比较,