论文部分内容阅读
随着计算机技术的持续发展,虚拟装配技术引起了人们越来越多的关注,但是如何使用户以更为自然的方式与虚拟环境交互却是一个问题。传统的交互系统,像鼠标、键盘等,都是通过人操作设备从而实现人与计算机的通信,而这种交互方式,由于缺乏智能性和便利性,己经不能满足人们的要求。随着自然人机交互概念的提出,人们开始着手研究人与计算机更为自然的交互方式。脸部识别、手势识别、语音识别等作为自然人机交互的重要组成部分受到人们的广泛关注。本课题基于虚拟现实、人机交互、计算机视觉、手势识别等技术,利用体感交互设备Kinect和虚拟现实仿真软件3DVIA Studio,开发了一套虚拟交互式的演示系统,通过用户简单的手势及身体动作,能够进行展品的虚拟装配和虚拟展示,具有较强的实时性和互动性,让用户更加直观地了解产品的功能和特点。本系统体感交互的实现主要用到了基于Kinect深度图像的手势识别和Kinect获取的骨體数据。本文将Kinect获取的右手骨豁位置通过坐标转换映射到计算机屏幕坐标系中,用右手的移动来代替鼠标的移动,再利用右手手掌张开和握拳不同的手势识别结果来代替鼠标左键的输入,用人的手最大限度的模拟鼠标的操作。而对于其他的交互动作,主要用到了骨路节点之间的相对位置。对于手势识别,本文将之分为两个部分:手势分割和手势特征提取。手势分割以Kinect获得的深度图像作为输入,利用灰度直方图、自适应双阈值分割等方法将手势从图像中分割出来,并用中值滤波的方法消除手势图像中存在的噪声。手势特征点提取,首先对分割后的手势,采用腐烛操作提取掌心位置,然后运用八邻域边界跟踪算法提取出手势轮廓,接着使用Graham Scan算法计算出手势轮廓的凸包,再使用聚类和K-curvature等方法提取指尖位置,最后利用提取出来的掌心和指尖,计算出手指的数目,手指间夹角的大小,并以此对不同的手势进行分类。本文的工作实现了用户以肢体动作与虚拟场景的无接触交互,具有重要的应用创新价值。文中用到的基于深度图像的手势识别能在不同的光照条件下识别出常用的简单的手势,使用的自适应双阈值的分割方法,对于固定阈值的分割方法来说更加利于深度图像的手势分割。本文用到的手势特征提取方法也能准确的提取出掌心和指尖位置。同时本文的研宄也为进一步研宄体感交互技术提供了基础。