论文部分内容阅读
复杂场景下行为分析,尤其是稀少行为分析是目前计算机视觉研究领域的基础性课题,由于在该领域研究中需要融合模式识别、人工智能、图像处理等多领域知识,如何有效进行融合,并针对行为分析这一具体课题进行研究具有较高的研究意义,同时该课题较强的应用需求(智能看护、智能安防、智能交通、智慧城市等)更增加其研究意义和价值。在固定摄像头高空复杂场景下,由于场景自身变化、目标多样化、运动形式各异导致的目标跟踪困难、行为建模困难、在线检测复杂等问题。为此论文主要针对上述问题进行了如下研究:复杂场景下行为分析的基础视觉单词生成算法改进、离线行为聚类以及在线行稀少为检测。本论文主要工作分为以下几个部分:1)在视觉单词构建过程中,传统的视觉单词通常只利用方向信息,缺乏速度信息及上下文信息,结果导致对运动目标在运动轨迹相同但运动过程各异的行为无法有效建模。针对这一问题,本文提出了一种时空VStop视觉单词生成模型。该模型首先使用自适应速度量化算法建立运动模型的速度单词(V-word),以解决缺乏目标运动速度信息的问题;其次引入停词(Stop-word)概念用以描述场景中速度为零的行为,有效避免目标暂停或被遮挡而丢失的问题。通过对Hospedales ICCV09数据集的实验结果表明VStop视觉单词生成算法能有效提高复杂场景下行为分析性能。2)在离线行为聚类过程中,针对传统视觉单词缺乏中高层语义和鉴别能力弱及主题模型无法对稀少行为建模的缺点,提出了基于VStop视觉单词的主流行为聚类方法,以及在主流行为聚类基础上实现稀少行为聚类。该算法首先引入运动信息丰富的VStop视觉单词对行为细节信息进行有效建模,然后通过主流行为聚类信息发现稀少行为文档集,再剔除主流行为单词生成稀少行为训练文档实现对稀少行为的建模。通过Hospedales ICCV09数据集以及MIT数据集的实验结果表明本论文提出的算法不仅能够将部分原本无法区别的类别进行细化,同时算法能够有效的在非监督框架下发现低频稀少行为。3)在线稀少行为检测过程中,尤其在多目标多速度情况下,传统方法无法快速检测稀少行为,并且在线更新困难,本论文提出了基于主流行为更新的稀少行为检测算法。该算法受混合高斯背景建模算法启发,通过采用基于VStop视觉单词的主流行为建模,并通过类似前景区域检测算法来进行稀疏纹理点(即稀疏稀少行为区域)检测。通过对UCSD实验结果表明该算法能够有效进行稀疏稀少行为检测,并且该算法时间复杂度较低,具有较高的实时性。