论文部分内容阅读
视觉伺服控制以其获取环境信息量大,鲁棒性、自适应性高等优势引起大量学者和技术人员的研究兴趣。目前,国内视觉伺服控制的移动机器人在非结构化环境下实现对抓取目标的识别定位及控制过程多是将手臂和移动平台作为两个子系统分别独立进行控制优化,其结果会存在较多的局限性,并且定位精度较低导致机械手抓取工作易失败。同时,当两个子系统视觉独立标定时,由于机器人系统模型机械加工和装配的误差,在机器人连续运动中累积最终影响目标抓取点位姿估计和手臂抓取运动控制系统的稳定收敛。因此,本论文针对以上几个方面的问题进行了下述相关方法的研究。1)局部视觉与固定视觉合双目视觉伺服系统的自标定针对机器人对凸型物体目标的抓取任务进行了基于位置的视觉伺服(PBVS)手臂粗趋近运动和基于图像的视觉伺服(IBVS)手抓精对准运动两步分解。提出了一种联合移动平台上的固定视觉(Eye-to-hand)和局部视觉(Eye-in-hand)的双视觉结构,并给出了其自标定的计算方法,通过实验验证其有效性。2)基于图像矩特征点的多自由度机械手视觉跟踪控制分析视觉伺服的移动机器人系统基本控制方法,提出了一种基于图像矩的六自由度机械手视觉伺服运动控制方法,采用零阶矩和x、y轴一阶矩的关系来确定目标像平面的中心坐标,将Eye-in-hand视觉的线速度和角速度来表示所提取的特征点速度,得到图像雅可比矩阵与六自由度机械手关节角速度控制量和图像特征向量增量之间的关系,设计机械手精对准运动控制器。通过实验抓取不同凸型色彩物体观测图像矩特征点变化轨迹,与采用其他图像特征的视觉伺服控制轨迹结果对比证明了该控制器的优势和有效性。3)机器人自适应力/位混合的主动柔性运动控制机器人完成粗定位运动中一般采用基于位置的轨迹跟踪控制,研究力反馈信息实现柔顺运动控制方法,通过双闭环方式可减少对目标抓取位姿信息精度的要求。针对机器人操作手末端的运动出现多段轨迹直线与弧线过渡的情况,提出了五次贝塞尔曲线的轨迹过渡方法;提出了一种结合神经网络自适应算法的力/位混合控制方法,在机器人末端所受几何约束未知的情况下进行力与位置的双闭环控制策略。实验利用ROS的RVIZ插件编程期望的规划过渡轨迹,使用Move It在设计的虚拟环境中进行运动虚拟仿真,利用Rqt_plot得到的关节数据导出后,借助matlab画图进行仿真结果分析,对比五次多项插值方法可观查到关节角速度变化率峰值点的消失,曲线光滑度优化,实验结果表明关节力矩随着NN的学习次数,动态响应速度增快。4)基于深度学习的目标识别与检测研究了针对高温目标识别与检测方法,提出一种应用Faster RCNN模型的监督学习方法来判断热红外图像等温区域范围。采用近红外视觉的方式得到点阵数据的热成像,以此检测反应罐开罐与其他分类目标。最终,在工业镁冶炼还原化学工艺过程中,完成了以机器人代人自动排除罐内高温目标识别与定位任务。同时针对时间序列数据分析中遇到的低信噪比图像对于目标识别精度的影响,采用LSTM网络与传统神经网络的结合提高了该问题方法的识别率。综上所述,理论和相关实验研究结果表明,该研究方法在移动机器人抓取任务过程中通过手臂的添加可以实现作业空间的增大,也能保证机器人的定位与控制精度。针对凸型物体抓取目标的识别定位与控制提出的方法,最终以目标估计位姿所判定的抓取位姿分别在X、Y轴的误差分析中表明识别定位误差被控制在10mm以内,使得采用末端两自由度夹持器实现抓取动作的成功率有所提高。