论文部分内容阅读
抓取操作是人-机器人协同系统中机器人的主要操作之一,通过视觉赋能机器人的场景理解和提高抓取操作的智能化程度是目前机器人应用领域的研究热点。但是,现有的视觉引导的机器人操作还存在应用场景简单、不能有效解决遮挡、识别定位精度有待提高和获取标注数据成本较高等问题。基于此,本文借助深度学习的方法,深入研究机器人抓取目标空间位姿估计等内容,提出了一种基于RGB图像的物体姿态估计方法,并通过物理实验进行了实物抓取验证。本论文主要工作如下:(1)对国内外视觉引导的机器人操作发展现状和存在的问题进行了综述。机器人抓取操作中,常用的平面抓取方法对复杂场景中的目标物体抓取较困难,故本文通过估计物体的6D姿态来进行抓取;估计目标物体6D姿态的输入数据通常是点云或者RGBD,存在数据获取困难和数据计算量较大的问题,本文设计了一种仅利用RGB图像输入来估计物体6D姿态的方案。(2)设计了视觉引导机器人抓取的整体框架。利用实验室的ABB机器人构建了抓取平台,通过相机标定获取相机的内参,搭建“Eye-in-Hand”的手眼标定系统,并根据实际情况得到了相机与机器人之间的位姿转换关系。(3)本文基于CDPN(Coordinates-based Disentangled Pose Network)网络进行改进。在CDPN的特征提取网络中加入CBAM(Convolutional Block Attention Module)模块从而引入通道和空间注意力机制,旨在抑制无用特征,增强有用特征。并在CDPN的特征提取网络和旋转量估计网络的输出端利用PPM(Pyramid Pooling Module)将特征图的不同尺度信息单独提取出来,并包含进当前像素点的特征中,为当前像素的分类提供更加有效的特征表达。(4)构建了机器人抓取实验平台并进行实验验证。利用实验室的物品构建了一个姿态估计数据集和目标检测数据集,并进行了实际抓取实验,验证了本文算法在实际应用中的可靠性和鲁棒性。