论文部分内容阅读
视角无关的人体行为识别是计算机视觉领域研究的热点和难点之一,现有的视角无关的行为识别算法的识别率随着角度的改变差异很大,尤其与俯角相关的识别效果还不够理想。知识迁移是一种建立不同视角之间关系的有效方法,本文以此为基础提出了两种视角无关行为识别算法。第一种是基于双语动态系统包的视角无关的人体行为识别方法。首先结合兴趣点检测器和密集采样算法提取视频帧中的时空立方体并对每个时空立方体建立线性动态系统(LDS);其次对LDSs进行非线性降维聚类形成码本,并结合非硬性加权(Soft-weighting)用一个动态系统包(Bag of dynamical systems)来表示每个动作样本;最后同时对两个视角下的BoDS采用K-奇异值分解(K-SVD)算法得到一对的可迁移字典对,然后根据这对字典对采用正交匹配追踪(OMP)算法得到两个视角下每个动作的稀疏表示,确保不同视角下的相同动作具有相同的高层表示。第二种是基于主题分布知识迁移的视角无关的人体行为识别方法。首先提取时空体描述符并采用词袋模型描述每个动作视频;其次引入LDA模型用每个视频的主题分布做为其中层特征;最后采用知识迁移算法得到可迁移字典对,由此获取两个视角下动作的稀疏表示做为高层特征用于识别。上述两种方法均是利用多类SVM方法进行训练与识别,在IXMAS和MuHAVi-MAS两个数据集上的实验结果表明了算法的稳定性和有效性。