论文部分内容阅读
随着计算机技术及人工智能的迅速发展,人体姿态识别被广泛应用于人机交互、游戏娱乐和生物特征识别等多个生活领域。但在实际研究中,因环境、背景、光照等问题导致最终的识别精度不高,Kinect获取的深度图像和骨架信息具有颜色无关性,对光照不敏感,克服了普通光学图像的缺点。因此本文采用Kinect2.0构建了实验所需的人体身份及姿态图像库,采集了彩色、深度以及骨架信息三种数据类型。提出了一种基于关键关节点坐标的人体身份及姿态建模方法,采用距离法进行特征提取,所构建模型所需数据量小、鲁棒性高;在此基础上,搭建了BP神经网络身份及姿态识别仿真模型,实验结果为人体身份识别率99.17%,姿态平均识别率98.00%,证明本文所提出算法具备所需训练样本少且识别准确率高的双重优点。
另一方面,训练一个大规模网络,需要耗费大量的资源,且所需标记好的数据集又难以获取。针对这种情况,本文搭建了一个改进的ResNet网络迁移学习模型。在原网络中引入多尺度特征融合以提升网络的特征表达能力,采用Adma算法和全局平均池化方法优化模型,再将其与迁移学习技术相结合以提升网络的性能。最终实现的人体姿态平均识别率为98.13%,经过对比分析,该方法在准确率上优于传统算法,对于小规模数据集仍具备较高识别率。
另一方面,训练一个大规模网络,需要耗费大量的资源,且所需标记好的数据集又难以获取。针对这种情况,本文搭建了一个改进的ResNet网络迁移学习模型。在原网络中引入多尺度特征融合以提升网络的特征表达能力,采用Adma算法和全局平均池化方法优化模型,再将其与迁移学习技术相结合以提升网络的性能。最终实现的人体姿态平均识别率为98.13%,经过对比分析,该方法在准确率上优于传统算法,对于小规模数据集仍具备较高识别率。