基于关键姿势的人体动作识别

来源 :太原理工大学 | 被引量 : 5次 | 上传用户:whj0631
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着计算机中央处理器的运算能力、硬盘储存容量的不断提高和视频采集设备的多样化发展,视频数据也被人们广泛的应用在生活中,人们通过网络来分享各种有趣的视频,使得网络上的视频数据量急剧的增加。而在一些人流量较大的场所,如医院、银行、机场和火车站,视频监控是一种很重要的监控和震慑犯罪的手段,但是这些摄像头和相关的储存设备仅仅能采集和储存视频数据,而视频中人的各种动作及其行为目的仍需要人工判读,因为它们还不具备机器自动识别的能力。在视频中应用人体动作识别技术可以有效减轻工作人员的工作强度,提高工作效率。由于人体结构的复杂性,能做出来的动作更是数不胜数,所以对视频中人的动作进行识别一直面临着许多的问题和困难。在这种情况下,人们已经提出了众多的人体动作自动识别方法,其中基于特征和区域的识别方法也得到了深入的研究和发展,但是由于视频是在一段时间内的各种动作的集合,所以对它的自动识别仍然受到了各种各样的限制,随着时空特征被提出,一些基于时空特征的整体动态系统对人体动作识别也被相应的提出,时空特征可以很好的在时间和空间的基础上描述人体动作,也成为人体动作识别的热点话题,但是时空特征也有信息量偏大的问题。此外,人体能表现的动作类别太多,所以把所有的动作进行分类和统计几乎是不可能的事情。针对常见传统方法中识别速度慢,准确率低的问题,本文提出了利用对比姿势中的某几个关键动作来识别视频中的人体动作,该方法可以在一定程度上提高速度和准确率。本文对视频中人体动作的识别分为三个步骤。第一步是提取关键姿势样本并计算样本的Hu矩。也就是通过分析人体动作的视频帧序列,按照不同帧中动作的自相似性和周期性等运动特征,人工挑选出合适的关键性动作作为样本动作,然后计算这些关键动作的Hu矩,并把它们保存起来。第二步是识别待测视频中的动作。对待测的视频,提取出运动目标,计算它的不变矩,并与关键姿势样本的不变矩比较,然后采用带拒绝的K近邻算法来对待测样本进行分类,第三步是将不在已有分类的样本中的类别标识为未识别动作,并把这些未识别的动作收集到一个特定的集合中。同时也根据动作的的含义把这些未识别的动作,进行建模、提取关键动作,构建新的动作类别。实验结果表明,人体动作中有些特征明显的动作,这些特征能有效的描述动作和区分不同的动作,合适的关键动作的选取可以有效的提高识别的正确率,通过识别数据分类中不存在的动作,对这些动作进行收集和标识,这样也能提高系统对已有分类识别的范围。
其他文献
在不利的声学环境下,语音通信系统的性能受到严重的影响。噪声的存在会降低语音质量与语音可懂度。这也使得语音通信系统的在现实环境下的应用受到了限制。因此,语音增强技术
作为医学图像处理与分析的基础,医学图像的配准和分割是医学图像分析领域中最基本的问题,是医学图像处理领域的研究热点,也是临床诊断、虚拟手术和人体动态模拟中急需解决的
随着公共对象请求代理体系结构CORBA (Common Object Request Broker Architecture)的广泛应用,CORBA安全面临前所未有的挑战。特别是CORBA系统中众多对象的访问控制问题,一
压缩是数字图像处理领域研究的基本问题之一,以JPEG和JPEG2000为代表的图像压缩方案已经被广泛应用于现实生活中。但是图像压缩可能会掩盖恶意的修改操作,因此一些特殊场合,如新
随着Internet的迅速发展和全球对终身教育的需求,以异步教育方式为主要特征的E-learning正成为Internet上的一种重要应用,它使不同时间、不同地点的人们开展高效率的学习成为
随着Internet技术的高速发展,信息尤其是数字信息的交流的达到了一个前所未有的深度和广度,数字信息交流快捷的同时,也给数字作品的版权问题带来了严峻考验:作品的所有权问题,数字
传统的视频压缩编码标准MPEG—1/2和H.26x都采用基于帧的技术,不要求对场景进行分割,它们能获得较高的压缩比,并在很多领域得到广泛的应用。随着多媒体信息的日益丰富,人们不再满
随着移动通信的发展,人们迫切希望能方便地利用手持移动设备访问Web网站。由于移动设备的小屏幕和低带宽的缺点,使得这一难题一直没有得到很好的解决。Web网页是为桌面计算机
近年来,无线传感器网络得到了非常广泛的应用,其研究已成为无线网络领域的重要课题。无线信道频繁变化,不同无线链路上并发数据相互干扰,网络拓扑结构的动态性,被感知事件产生的突
将现代计算机和网络技术应用于政府机构,实现其管理服务的电子化、自动化、无纸化是当前我国信息化建设的重要环节。互连网发展的日新月异,带动了该领域内应用技术的更新,为