论文部分内容阅读
在机器人技术飞速发展的今天,机器人在工业中的应用程度已经成为工业技术是否成熟的标志。近年随着来机器人控制技术的发展,人与机器人之间的交互方式变的越来越简单,交互方式也逐渐由传统的示教器控制向一种更加自然的交互方式—体感技术控制过渡。利用人体动作和手势进行机器人的控制,会减少很多繁琐的机器人示教及程序操作,更加的方便和快捷。体感控制的人机交互方式关键技术是基于机器视觉对于人体动作和手势的识别。通过对国内外关于体感技术的发展现状研究,发现目前大多数的体感技术还是倾向于游戏娱乐行业,在对于机器人方面的应用还比较欠缺。选取Kinect体感设备为本设计的开发工具,Kinect体感设备是一种全新的人机交互设备,它能够捕捉、跟踪、识别人体的动作、手势和语音。Kinect体感设备还可以获取人体的彩色图像、深度数据以及人体骨骼图像,通过人体的人体骨骼图像的提取,从而可以实现人体关节点的深度信息的获取。本课题是通过引用微软公司的Kinect的体感设备来进行人体的姿态识别研究和机器人的体感控制仿真实现的。人体姿态的识别是进行体感技术开发的关键。进行人体姿态的骨骼图像实时再现,需要在设计进行提取目标对象的骨骼数据流信息。Kinect体感设备连接Visual Studio 2010搭建开发环境,进行对目标对象的骨骼框架对象和关节点数据的获取,将获取的20个人体关节点的进行连接,从而就可将人体姿态的骨骼图像实时的再现出来。机器人的体感控制仿真部分,通过对机器人的运动轨迹和关节角度进行运动学分析,运用自主设计的角度测量转化算法转化为机器人的关节角度,建立机器人模型。再由Kinect体感设备进行获取当前场景的3D点云数据。通过对点云数据中的离群点点云去除和主体点云中的冗余点的过滤,从而得到需要的点云数据信息。然后通过获取的操作者手指目标点坐标数据信息,然后将其转化为机器人模型的关节角度的数据,从而实现通过手势控制机器人运动。