论文部分内容阅读
人体目标检测及人体行为识别作为机器视觉领域研究的热点,目的在于能够建立这样的系统,它能够发现人体目标并理解目标的外观、运动和行为等,并且能够提供新的人机交互方式。本文针对人体检测及人体行为识别分别进行相关研究,目前对于单视角下人体检测研究已经很深入,主要存在的问题还是在解决遮挡人体目标的情况。但是对于多视角下的人体检测方法还比较少。本文基于块信息的单视角人体检测方法提出一种基于结构化约束的多视角人体检测方法,能够有效解决多视角人体检测问题。而对于人体行为识别,本文根据Kinect摄像头获取的人体骨骼信息提出一种基于动态时间规整的行为识别方法,这种方法对视角变化有更好的适应性。主要研究内容包括:(1)人体目标检测:为了能够更好的进行视角间信息融合,本文采用基于块信息的人体检测模型,得到不同视角下的目标人体;(2)视角信息融合:主要研究不同视角下人体信息的融合,用以弥补单视角人体检测中存在的漏检情况。针对仿射变换后的区域因遮挡或者存在多目标导致多视角目标关联困难这一问题,利用人体局部显著块间的结构化约束为多视角目标匹配构造最大后验概率模型,通过最优求解获取多视角目标匹配结果;(3)人体行为识别:针对Kinect摄像头中提取的人体骨骼信息,通过动态时间规整算法,利用模板匹配的方式得到目标动作的正确分类。本文创新之处在于提出一种基于人体块信息的多视角人体检测算法,能够有效用于多视角目标检测和信息融合。实验结果表明,这种方法能够达到较好的目标检测效果。对于人体行为识别,分别在Microsoft Action3D、Microsoft DailyAction3D和TJU数据集上进行实验,结果表明本文提出的基于动态时间规整的行为识别方法能够有效的解决行为识别问题。