论文部分内容阅读
近年来随着视频数据库的快速增长和视频监控系统的迅猛扩张,人工分析已经远远不能满足需要,因此急需能够对视频进行自动分析管理的技术。在视频分析技术中,对人体行为的识别和分类有着尤其广泛的应用前景。目前比较常用的方法基本是基于时空兴趣点的,但目前现有的几种时空兴趣点检测算法都存在两个重要的不足,首先是检测的响应受到光照强度变化的严重影响,其次是高斯滤波的应用降低了兴趣点定位的准确性。针对这两点,我们提出了全新的基于相位一致性的兴趣点检测算法和与之配套的兴趣点描述算法。为了提高兴趣点检测算法对光照强度的不变性和定位的准确性,本文提出了一种全新的基于相位一致性的时空兴趣点检测算法,将图像分析中的相位一致性算法扩展到了视频分析中。这一算法对于各类时空边缘都能够产生很强的响应,并且和现有的检测算法相比有两大优点,首先相位一致性是一个无量纲的相对量,因此对于亮度和对比度的变化具有更强的不变性;其次相位一致性算法没有使用任何的高斯滤波,因此对时空兴趣点的定位更加准确。为了提高特征描述算法的性能,我们提出了和检测算法相配套的基于相位一致性的特征描述算法。我们首先提出了确定时空兴趣点的时间尺度和平面尺度的方法,进而从时空兴趣点的周围提取出时空区域,在此基础上提出了全新的基于相位一致性的特征描述算法。相对于传统的基于视频灰度值的描述算法而言,本方法能够更好的捕捉视频中的结构信息和物体的运动,从而提高特征描述的性能和行为识别和分类的准确性。在识别和分类系统设计方面,本文阐述了选择Bag of words模型作为系统框架的依据,讨论了分类器的选择,研究了学习视频的选择和码书大小的设置。最后针对之前几章中的重点结论在KTH human motion dataset上进行了实验验证。实验表明:基于相位一致性的时空兴趣点检测算法具有良好的检测性能以及对光照和对比度的不变性,基于相位一致性特征描述算法的行为识别和分类系统具有很高的正确率。