基于视觉引导的机器人抓取姿态估计研究

来源 :西华大学 | 被引量 : 0次 | 上传用户:flurryzhang
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
抓取操作是人-机器人协同系统中机器人的主要操作之一,通过视觉赋能机器人的场景理解和提高抓取操作的智能化程度是目前机器人应用领域的研究热点。但是,现有的视觉引导的机器人操作还存在应用场景简单、不能有效解决遮挡、识别定位精度有待提高和获取标注数据成本较高等问题。基于此,本文借助深度学习的方法,深入研究机器人抓取目标空间位姿估计等内容,提出了一种基于RGB图像的物体姿态估计方法,并通过物理实验进行了实物抓取验证。本论文主要工作如下:(1)对国内外视觉引导的机器人操作发展现状和存在的问题进行了综述。机器人抓取操作中,常用的平面抓取方法对复杂场景中的目标物体抓取较困难,故本文通过估计物体的6D姿态来进行抓取;估计目标物体6D姿态的输入数据通常是点云或者RGBD,存在数据获取困难和数据计算量较大的问题,本文设计了一种仅利用RGB图像输入来估计物体6D姿态的方案。(2)设计了视觉引导机器人抓取的整体框架。利用实验室的ABB机器人构建了抓取平台,通过相机标定获取相机的内参,搭建“Eye-in-Hand”的手眼标定系统,并根据实际情况得到了相机与机器人之间的位姿转换关系。(3)本文基于CDPN(Coordinates-based Disentangled Pose Network)网络进行改进。在CDPN的特征提取网络中加入CBAM(Convolutional Block Attention Module)模块从而引入通道和空间注意力机制,旨在抑制无用特征,增强有用特征。并在CDPN的特征提取网络和旋转量估计网络的输出端利用PPM(Pyramid Pooling Module)将特征图的不同尺度信息单独提取出来,并包含进当前像素点的特征中,为当前像素的分类提供更加有效的特征表达。(4)构建了机器人抓取实验平台并进行实验验证。利用实验室的物品构建了一个姿态估计数据集和目标检测数据集,并进行了实际抓取实验,验证了本文算法在实际应用中的可靠性和鲁棒性。
其他文献
学位
学位
学位
学位
学位
学位
学位
十字路口汽车与二轮车碰撞事故数量居高不下,安全形势严峻。其中二轮车骑车人作为弱势道路参与方,在碰撞中易发生严重损伤甚至死亡的情况。由于十字路口交通参与方运动轨迹复杂和二轮车行驶姿态多样的特点,仅依靠自车装备的传感器不能及时探测十字路口汽车与二轮车的交通冲突,难以保证十字路口汽车与二轮车的行车安全。基于V2I技术实现车辆与道路基础设施通讯,能及时识别潜在的碰撞风险,有效减少十字路口碰撞事故的发生,所
永磁同步电机具有效率高、结构简单、功率密度高、输出转矩大等优点,目前被广泛应用于新能源汽车驱动系统。本文围绕新能源汽车应用场景,为提高新能源汽车电机驱动系统性能,对电机控制器软硬件进行了研究和设计,主要进行了如下工作:首先建立了永磁同步电机模型,在不同坐标系下对其数学模型进行了推导分析。根据内置式永磁同步电机转矩输出特性,对最大转矩电流比、弱磁控制理论进行分析,确定了最大转矩电流比与弱磁控制结合的
自动驾驶是未来汽车发展趋势,轨迹跟踪性能是自动驾驶汽车重要性能之一,操纵稳定性动力学模型在其中起到重要作用。现有自动驾驶算法多选用不同自由度数学模型进行算法开发,但大多忽略悬架结构,认为其轮胎力学特性为线性,导致模型与实车误差较大。为从理论角度提高轨迹跟踪精度,本文通过定量表达车轮定位参数及轮胎力学特性的变化,分析悬架K&C特性对汽车运动轨迹影响,实现仿真模型对实际轨迹有较好的跟踪性能。首先介绍考