论文部分内容阅读
提出了一种利用"bag of words"模型对视频内容进行建模和匹配的方法。通过量化视频帧的局部特征构建视觉关键词(visual words)辞典,将视频的子镜头表示成若干视觉关键词的集合。在此基础上构建基于子镜头的视觉关键词词组的倒排索引,用于视频片段的匹配和检索。这种方法保留了局部特征的显著性及其相对位置关系,而且有效地压缩了视频的表达,加速的视频的匹配和检索过程。实验结果表明,和已有方法相比,基于"bag of words"的视频匹配方法在大视频样本库上获得了更高的检索精度和检索速度。