论文部分内容阅读
当前,制造业正向着智能化的方向快速发展,对机器人与环境的交互提出了更高的要求,视觉系统因其具有丰富的视觉信息和高可靠性而备受关注。近20年来,机器人视觉伺服系统成为机器人研究领域的热门之一。本文以ABB IRB1200六自由度工业机器人为研究对象,采用Eye-in-hand模式搭建视觉伺服机器人系统,提出了一种基于几何作图的手眼标定方法标定手眼参数。并提出了基于深度卷积网络HED(Holistically-Nested Edge Detection)结合Canny算子的目标工件识别方法,实现机器人准确完成抓取和放置目标工件的任务。具体内容如下:一、机器人实验平台的开发。搭建下位机、服务端、客户端的架构模式,方便地使用平台无关的高级语言进行快速二次开发或远程操作机器人。二、机器人视觉系统的标定。相机内参通过Matlab标定工具箱标定完成。摄像机外部参数旋转矩阵标定可以通过控制机械臂做正交平移运动来实现。对于摄像机外部参数平移向量的标定,提出了一种基于几何作图的标定方法,通过几何作图方式提取机器人末端中心在工作平台上的投影点所对应的世界坐标来确定特征点,并根据确定的特征点求出摄像机外部参数平移向量。最后,通过测量场景中已知线段的距离来验证视觉系统标定参数的精度。三、基于深度学习的机器人抓取。提出基于深度卷积网络HED(Holistically-Nested Edge Detection)结合Canny算子的识别方法。HED提取目标物体的灰度轮廓,Canny算子提取目标物体的二值化轮廓,模板匹配后找到目标工件轮廓,通过矩信息和最小包围矩形来估计目标工件的位姿,工件运动速度由帧差法测量得到,最后工件位姿信息通过手眼关系转换到基坐标系进而指导机器人抓取。四、基于位置的工业机器人视觉伺服控制系统的实现。本系统是基于OpenCV库、Caffe库和Visual Studio 2013提供的MFC类库和Windows Forms来实现客户端和服务端人机交互界面设计的,客户端具体包括机器人控制模块、速度检测模块、工件定位抓取放置模块、图像处理模块、网络通信模块等。服务端具体包括连接机器人模块、网络通信模块等。最后,验证系统抓取工件的成功率和放置工件到目标位置的精度。