论文部分内容阅读
长期以来,人们在交互时习惯用声音、表情、肢体语言、肢体接触等形式,这些形式是人们长期形成的固化的交互方式。为了使仿人机器人得到更广泛的应用,进入人们的工作、生活,要求仿人机器人具有人类习惯的、自然的、类似人的声音、表情、身体动作等交互形式。目前,大多数仿人机器人难以实现与人类似的交互,一方面,仿人机器人与人的交互方式单一,难以满足人们的交互需求;另一方面,仿人机器人在人机肢体接触交互时难以保证人的安全。本文结合国家“863”计划目标导向课题“具有环境感知和作业功能的高仿真仿人机器人”和国家自然科学基金项目“仿人机器人人性化表情交互理论与实现”,从表情和身体动作两个方面开展仿人机器人人机友好交互研究,主要研究内容和成果如下:首先,针对高仿真仿人机器人头部表情建模复杂的问题,借鉴人的面部表情产生机理和过程,采用人体运动捕捉系统获取人的面部运动数据,通过数据分析获得表征6种基本面部表情的运动点之间的主被动规律;根据表征6种基本面部表情的运动点之间的主被动规律,提出了表征面部表情的主动驱动点(ADP)概念和仿人机器人面部表情的设计方法,有效地减少了表征面部表情的自由度数目。其次,针对现有仿人机器人与人的交互不够自然的问题,提出一种基于人体交互数据运动学和动力学匹配的仿人机器人交互方法,对人类交互时肢体动作进行捕捉,结合仿人机器人的自由度、关节范围、地面接触等约束,将捕捉到的人体交互数据进行匹配得到仿人机器人人机友好交互时全身运动规划数据。第三,针对仿人机器人与人肢体接触交互的精确性和安全性的耦合问题,提出了一种手眼伺服控制和阻抗控制融合的控制方法,考虑了视觉伺服控制和力觉控制的相互影响,同时增强了交互的精确性和安全性。针对仿人机器人与人肢体接触时自身的平衡性问题,提出了一种基于视觉信息的仿人机器人全身协调运动控制方法,在实现人机友好交互的同时保持仿人机器人自身的平衡。第四,对本文所提方法在仿人机器人平台进行实验验证。通过面部表情识别实验,验证了本文所提主动驱动点方法的有效性。通过仿人机器人肢体语言交互实验,验证了本文所提的仿人机器人肢体语言交互方法的有效性。通过人机肢体接触的友好交互实验,验证了本文所提的人机肢体接触交互控制方法的有效性。