论文部分内容阅读
位姿是反映并联机器人运动状态的重要参数,但由于并联机器人通常具有复杂的结构,其运动是三维空间的多自由度综合运动,且在无任何检测装置之前,并联机器人的精确空间位置是一个没有规律的未知数,所以如何同时获得多个自由度的高精度测量是并联机器人运动状态控制研究中亟待解决的重要难题。针对以上问题,本论文以机器视觉检测技术为手段,设计了基于视觉的并联机器人运动位姿检测系统,建立了并联机器人的特征提取和运动跟踪算法,而后分别提出了基于单目视觉和双目视觉的位姿估计方法。首先,论文系统地阐述了并联机器人的发展历史、国内外研究现状和主要的应用领域;分析了并联机器人位姿检测的方法及在并联机器人领域尚待解决的问题;描述了机器视觉系统的构成,理论的建立及机器视觉测量技术的研究与应用现状。其次,设计了基于整体信息处理机制的网络控制系统结构并针对并联机器人的位姿检测给出了视觉信息反馈框架及位姿描述方法。再次,建立并联机器人Haar-like特征集。而后利用该特征集训练简单分类器,并通过使用级联思想将各种简单的、独立的分类器结合起来构建了级联分类器,实现对并联机器人的运动跟踪。然后,讨论了基于单目视觉的三种并联机器人位姿检测方法:基于矩形不变量的位姿检测方法、基于点相关的位姿计算方法和基于免疫进化算法的位姿估计方法。其中方法一是利用并联机器人末端执行器上的矩形结构在投影中的两个仿射不变量来计算并联机器人的位置和姿态。方法二是以方法一所估计的并联机构的运动位姿信息作为迭代初值;以摄像机坐标系原点到末端执行器平面的距离作为变量,建立该变量与4个特征点的投影深度的关系模型;以末端执行器的刚体结构特性及4个特征点的共面特性建立了7个约束方程,最后由高斯迭代实现对变量的估计,获得并联机构的运动位姿信息。方法三是以待估计的并联机器人的6个位姿参数作为抗原;借鉴生物免疫系统中克隆变异和免疫记忆机理,通过免疫进化获得位姿参数的可行解。之后,构建了双目视觉位姿检测系统,提出了一种基于主动表观模型的并联机器人位姿检测方法。首先建立了分别适用于左右摄像机的两个AAM (Active Appearance Model)模型,并通过离线学习获得该模型参数;然后利用学习结果实现对输入图像中并联机器人的匹配和跟踪;最后根据投影空间的几何变换关系和匹配后的立体图像对,对并联机构末端执行器进行三维重建和位姿计算。最后,对全文的工作进行总结,并展望视觉检测领域中有待深入探索的几个研究方向。