基于RGB和深度信息融合的双人交互行为识别

来源 :辽宁石油化工大学 | 被引量 : 1次 | 上传用户:shiguanglai
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
基于视频的双人交互行为识别是机器视觉重要的研究方向,其在智能安防、视频内容检索等方面具有广阔的应用前景。基于RGB视频的人类交互行为识别由于其缺乏维度信息,难以适应复杂环境下光照或背景等干扰问题,导致其对于复杂交互行为识别的准确率不高。为了弥补RGB视频的缺点,本文采用RGB和深度信息融合的方法对双人交互行为识别进行深入的研究:首先,针对基于RGB视频序列的双人交互行为识别缺乏深度信息,对复杂多变的交互动作识别不够准确的问题,本文提出一种融合深度信息的个体分割信息和RGB整体信息的双人交互行为识别算法,该方法在RGB视频信息源上采用基于整体的方法对动作视频进行表示;在深度视频信息源上通过YOLO网络结构对交互的双人进行个体分割,然后对分割的个体使用视觉共生矩阵对视频中属于每个人相关联的兴趣点进行特征描述送入分类器进行分类,最终将两个信息源进行融合。该算法易于实现,可操作性强,且识别率得到大幅提高。其次,针对双人交互行为识别算法普遍基于视频的传统特征描述,其算法存在计算复杂度高且识别准确率相对较低等问题,针对该问题提出一种基于RGB和深度视频双流融合的深度学习网络结构模型,利用卷积神经网络完成对图像序列空间特征的提取与矢量化,将获得的矢量信息输入长短期记忆网络单元进行时序建模。训练过程中将RGB视频和深度视频数据流单独送入各自网络训练交互行为网络模型,将网络模型获得的类别概率矩阵分别送入softmax进行融合获得最终识别结果。本算法相比传统算法识别率得到大幅提高。最后,针对卷积神经网络不能专注行为识别的局部空间突出信息,在上面研究的基础上,提出了一种基于注意机制卷积的RGBD双人交互行为识别算法。该算法利用注意机制卷积自动提取动作子类的显著局部关节特征,将该特征与长短记忆神经网络相结合,完成对视频的动作行为特征表示与时序建模,取得较好的识别效果。该算法准确率相比卷积算法识别率没有大的提升,但是其训练收敛速度快,震荡幅度小,容易趋于稳定,具有重要的现实意义。
其他文献
选取沧州地区所有的旱情监测站资料进行研究,详细分析沧州地区在时间上的变化特征以及水浇地作物、水浇地白地、旱地作物、旱地白地等情况下的土壤墒情变化规律,得出对应的结论,同时提出相关建议。
被引频次是文献计量学中被用来测度学术论文的社会显示度和学术影响力的重要指标。提高被引频次,其实质就是提高学术论文的质量,提高一个国家(地区)、单位(个人)的学术水平及其
为降低连续梁桥的梁高以拓宽连续梁桥的适用范围,对两种梁高情况下的(60+100+60)m连续梁桥进行设计,改变横截面设计尺寸,以确保梁高相对较小结构的整体承载力和结构刚度,建立两种
切换系统在实际系统中广泛存在,如今越来越多的控制系统也试图通过设计切换策略来改善其控制性能,这促进了对切换理论的研究并涌现出越来越多的研究成果。在稳定性方面,目前
研究背景自19世纪80年代末90年代初开始,STR分型技术逐渐被广泛应用于法医工作的个体识别和亲权鉴定实践中。作为第二代DNA遗传标记的短串联重复序列(short tandem repeat,ST
相干反斯托克斯拉曼散射光谱(CARS)是一种非线性四波混频过程,由于该散射光束能够反映物质分子的组成和结构特征,并且具有信号强、灵敏度高、光谱分辨率高以及荧光干扰小等优