论文部分内容阅读
随着电子技术产业和多媒体信息技术的蓬勃发展,人们已经不再满足于简单的视觉体验,而逐渐兴起的基于体感的虚拟现实交互技术,很好地弥补了技术与需求上的空白,被广泛地应用到教育辅助、电影制作、医学康复治疗和直播互动等领域。针对目前虚拟现实交互系统存在动作捕捉装置复杂、价格昂贵、功能单一、环境要求严苛等问题,本文设计并实现了基于Kinect的虚拟现实交互系统。用户能够实时地与3D模型进行交互,将表情和身体运动数据实时映射到3D虚拟角色上,具有广泛的市场前景和实用价值。本文的虚拟现实交互系统主要从交互方式、检测方式和检测性能进行了改进和提升。在交互方式上,本文采用Kinect摄像头作为图像采集设备,通过主动表观模型和骨骼追踪算法捕捉脸部和身体特征点,进行3D模型的实时交互驱动。在检测方式上,本文利用RGB和深度图像信息进行人体特征点的联合检测。在检测性能方面,本文提出手部关节的位置推断方法以解决手部关节检测丢失和特征点定位不准确的问题,然后对人体运动数据进行中值滤波,有效提升了数据采集的准确度。本文根据系统需求将虚拟现实交互系统划分为界面终端,数据采集终端,表情检测终端,动作捕捉终端和后台终端。选择“模型-视图-控制器”框架作为系统总体框架,确定系统总体方案和流程,对系统功能模块进行设计与实现。功能模块包括界面终端的用户操作界面模块、可视化模块和模型场景模块,表情检测终端的人脸识别模块、状态分析模块和表情驱动模块,动作捕捉终端的骨骼数据优化模块和动作重定向模块,后台终端的动作数据管理模块。最后,为了验证系统的可行性和准确性,对各功能模块进行了测试分析。对结果分析显示,本文所设计的虚拟现实交互系统表情检测的识别率达到70%以上,手部关节丢失率在40%以下,达到预期目标。