论文部分内容阅读
空间光学载荷的在轨制造、组装、维修、维护、空间运输与救援、空间碎片或失效卫星的清理、航天器之间的协同与合作等航天活动是近年来重要的研究方向。在航天器进行交会对接时的近距离逼近段,通常采用视觉测量的方法。由于该方法具备系统构成简单、性能稳定、成本低廉等诸多优势,已成为研究的热点。本文主要研究了空间合作目标的单目视觉位姿测量技术,其核心是对单目相机采集的合作靶标图像进行识别、特征检测与定位等一系列图像处理操作,利用PnP算法求解相机与靶标的相对位姿关系。合作靶标的设计是实现单目视觉测量的第一步。通过对现有方案的对比分析,确定平面四点式、带有编码信息的靶标整体设计方案。结合相机工作参数,推导特征点距离与位姿测量精度的关系,确定靶标的详细尺寸、特征排布等参数。最终设计一款作用范围广、精度高、鲁棒性强的合作靶标。合作靶标的识别是实现单目视觉测量的第二步。靶标图像预处理后,利用像素梯度和链码原理获得连续、平滑、单像素宽的边缘,利用圆形度、拐点检测和中心匹配等约束条件识别圆环、外框、线条等特征,利用判定条件识别靶标。算法在距离不一、姿态多样、局部遮挡、复杂光照等复杂场景下,均能稳定、准确、快速地识别合作靶标。特征点的定位是实现单目视觉测量的第三步。在远近测量处分别设计基于最小二乘的外框交点定位算法和基于统计回归的圆环中心定位算法,保证特征点的准确快速亚像素级定位。利用圆环内圆面积与外圆面积比值的仿射不变性,顺利解码靶标的编码信息,可适应各种位姿且结果唯一,为下一步位姿求解做准备。位姿求解是实现单目视觉测量的第四步。本文对P4P算法进行理论推导与算法实现,顺利求解相机与靶标的相对位姿。最后一步是验证视觉测量精度。由于视觉测量的精度高,难以通过其他仪器高精度标定出相机与靶标的位姿关系。因此,本文使用UR10.0机器人搭建精度分析系统,对测量结果进行误差分析。利用上位机,通过TCP/IP协议和URScript语言实现对UR10.0机器人的远程监视与控制;对机器人手眼标定后,设计实验验证视觉测量的重复定位精度和绝对定位精度满足课题要求。整体来看,视觉测量系统的处理速度约为84.3 ms/frame,目标识别准确率为95%,最近距离0.13m处的测量误差小于0.05mm、0.05°,最远距离2.2m处的测量误差小于5mm、1°,满足速度和精度要求。目前,本文的研究成果已成功应用在通用接口的对接、锁紧、释放等操作中,用于模拟空间交会对接等任务场景,为未来在轨组装空间光学设施奠定了必要的技术基础。