论文部分内容阅读
随着社会和科技的飞速发展,高精度、高质量、高效率的产品成为必然,而连接各部分的关键技术——焊接技术也逐渐为人们所重视,由于一次成型能力、技术和成本的限制,焊接自诞生以来便成为制造业不可或缺的重要环节。传统的人力焊接已不能满足日益增长的生产精度、效率的需要,焊接自动化也与其他很多行业一道成为行业发展的必然趋势。伴随着机器人、计算机、传感器以及图像处理等方面的日新月异,人们开始关注具有视觉功能的机器人,现代焊接技术也越来越自动化、智能化。在自动焊接过程中,怎样才能快速可靠的获得高清晰度的能反映焊缝特征的图像、更快速可靠的获取焊缝信息、更精确的获取焊枪和焊缝中心之间的偏差是自动化焊接领域急需研究的课题。本文采用一种特殊结构的双目立体视觉,结合结构光和图像处理技术研究机器人焊接的应用。本文的主要研究工作概括如下:1.根据实验室现有的MOTOMAN UP6型机器人的运动机构和连杆参数建立了D-H参数模型,计算出各关节坐标系之间的变换矩阵,并用昆士兰理工大学PeterCorke教授编写的机器人工具箱进行验证。2.建立双目视觉模型推导图像雅克比矩阵,研究基于双目立体视觉的弧焊机器人焊缝图像处理,针对基于结构光的机器人焊缝跟踪系统的图像处理部分设计了简洁快速的图像处理算法。3.针对焊接过程中存在强烈弧光和飞溅等干扰进行图像处理时会产生断裂而不能确定光带位置的问题,运用摄像中局部曝光的思想,从硬件设备出发,根据激光器的波长和照度提出局部正常曝光法只将结构光正常曝光,以准确提取结构光的位置,然后用Hough变换对确定的结构光光带进行直线检测,从而提取出焊缝的特征点位置。4.针对焊接起始位置的定位控制运用基于图像的视觉伺服方式和误差以指数形式收敛的控制原则设计控制器,并运用神经网络和遗传算法相结合的方法对控制器的相关参数进行了优化,通过MATLAB仿真证明优化的合理性和可行性。