论文部分内容阅读
利用机器视觉完成图像匹配、目标识别以及位姿测量是装配机器人智能化的关键技术。通过这些技术可以引导、控制机器人在复杂未知环境下自主完成各种装配作业。轴、孔零件的装配在机器人装配任务中占很大比例,应用机器视觉技术来获取目标装配轴孔工件的精确位姿信息,进而引导机器人快速装配,正在成为自动化、智能化装配的重要研究领域。鉴于该领域的研究尚不够成熟,本文基于 ETH(EYE-TO-HAND)双目视觉系统与EIH(EYE-IN-HAND)手眼视觉系统,围绕提高视觉系统标定精度、改善图像匹配精度和改进轴、孔位姿测量算法开展研究,拟为后续六自由度装配机器人完成轴孔自主装配提供目标位姿信息。具体研究工作及成果如下: (1)提高视觉系统标定精度。改进亚像素角点提取算法,应用于棋盘格标定板角点检测,并对多次提取结果进行迭代优化,角点坐标均值误差减小了64.94%;以实验方法揭示标定误差影响因素,利用重投影误差为代价函数,定量分析标定精度,为相机标定过程中各环节参数的选择提供理论支持;运用恒定旋转矩阵,进行EIH视觉系统标定,最终检测结果显示:点距测量相对误差为1.15%,夹角测量相对误差为0.55%。 (2)改进SIFT立体匹配算法。将小波多分辨率分析融入SIFT匹配算法,基于实验揭示小波域多分辨率分析与图像匹配精度的相关性,遴选最佳小波,提取图像低频信息,提高算法抗噪性和匹配点召回率;提出“回”形窗口的有效邻域划分新方法,构建低维度独特特征点描述算子,提高匹配效率;运用基于全局计算的积分图像,改进误匹配点剔除方法,消除局部特征算子带来的匹配误差,提高匹配精度;以统计理论为基础,建立匹配结果评价指标,通过实验验证改进方法的合理性和实用性。 (3)提出轴、孔位姿测量新算法。提出双阈值分割算法用于轴目标的轮廓提取,分步提取强边缘和弱边缘,有效减少噪声影响;基于“角平分面”及“面面相交得直线”的原理,提出轴的中轴线提取算法,建立中轴线投影模型,获取目标轴的三维空间位姿;首先运用代数距离进行椭圆的粗拟合,再由椭圆定义约束和椭圆参数的几何关系进行精拟合,改进几何约束下的椭圆拟合算法,保证椭圆拟合精度;利用2D到3D映射,提出基于向量代数的端面法向量法,用于孔中轴线垂直于孔端面时的孔零件空间位姿测量;提出基于空间几何的S-T(Similar-Triangle)算法,用于孔中轴线倾斜于孔端面时的孔零件空间位姿测量;构建ETH/EIH视觉系统信息融合机制,分步完成孔零件位姿测量。