论文部分内容阅读
视觉传感器具有获取的信息量大、非接触式测量等优点,因而在机器人领域得剑了广泛应用。将视觉信息引入闭环控制回路中用于直接控制机器人,即视觉伺服,是当前的一个研究热点。目前,大多数机器人视觉伺服方法需要对机器人及摄像机进行标定。然而需要标定的参数非常多,标定过程十分繁琐,机器人的控制精度受标定精度的影响大,而且在一些情况下,如未知环境中,人们无法对机器人及摄像机进行标定,因此传统的视觉伺服方法不适用。近年来,一些研究者提出了机器人无标定视觉伺服方法,但对于无标定视觉伺服的研究尚处于起始阶段,还有很多问题需要解决。
针对基于高斯牛顿法的无标定视觉伺服方法直接忽略二阶信息项,在大残量时不收敛的情况。本文提出了一种基于Levenberg-Marquardt方法(简称L-M法)的无标定视觉伺服方法。该方法通过求解关于图像特征误差的目标函数的二次模型的最小值来得剑每一控制步。由于该方法采用了信赖域策略确保模型是非线性目标函数合适的模拟,并根据函数实际下降量与预测下降量的比值自适应地改变步长,从而对于大残量情况依然能够收敛。另外,模型中图像特征速度与关节速度间的复合图像雅可比矩阵采用Broyden方法动态估计,因而该方法无需对机器人及摄像机进行标定。
基于L-M法的无标定视觉伺服方法对大残量情况能收敛,不过由于该方法没有利用模型中的二阶信息项,大残量时收敛速度较慢。对此,在前述工作的基础上,提出了一种快速收敛的无标定视觉伺服方法。该方法用割线近似二阶信息项,而不是直接忽略它。由于充分利用了模型信息,因而具有更快的收敛速度。该方法中复合图像雅可比矩阵采用递推最小二乘法在线更新,对于噪声具有更好的鲁棒性。此外,采用信赖域策略保证算法的全局收敛性。
上述无标定视觉伺服方法适于机器人工作空间无障碍物的情况。对于工作空间存在障碍物的情况,本文提出一种基于Sequential Quadratic Programming(SQP)方法的无标定视觉伺服避障方法。首先建立一个关于机器人末端执行器与运动目标图像特征误差的最小二乘目标函数,并将机器人末端执行器与障碍物图像特征之间应保持的距离作为约束条件。然后用SQP方法求解该约束最优化问题得到每一步控制量。该方法能够保证机器人安全避障的同时高精度地跟踪轨迹,避免了传统采用势场法的无标定视觉伺服避障方法轨迹跟踪的精度与避障的安全度间的矛盾。
机器人动力学不仅影响跟踪误差还影响控制系统的稳定性。本文提出一种3-D空间轨迹跟踪动力学无标定视觉伺服控制算法。控制律由动力学估计前馈补偿部分和复合图像雅可比矩阵广义逆估计反馈部分构成。其中动力学参数通过动力学自适应律进行更新,运动学和摄像机参数组成的复合图像雅可比矩阵,其广义逆通过一在线更新律进行更新。该方法无需知道机器人的运动学参数、动力学参数及摄像机参数,而且无需线性化运动学和摄像机参数。避免了传统无标定动力学视觉伺服方法需要线性化机器人运动学、动力学参数以及摄像机参数而导致的问题,如:线性化过程非常复杂繁琐,难于应用于多自由度机器人;由于深度信息的存在造成的非线性很难线性化,因而目前的方法要么只适于2-D平面轨迹的跟踪,要么需要已知机器人的动力学参数。
图像特征的选取对于视觉伺服性能具有重要影响。图像矩提供了对于图像的通用表达,无论是形状简单还是复杂的物体。另外,通过选取恰当的图像矩特征,可获得较好的视觉伺服性能。本文提出了一种基于图像矩的无标定视觉伺服方法。首先研究了图像矩的选取及计算方法,并选取了六个具有较好特性的图像矩特征。然后设计了基于图像矩的无标定视觉伺服控制器,其中图像矩特征速度与机器人关节速度间的复合雅可比矩阵采用卡尔曼滤波器在线估计。
仿真及实验结果验证了本文提出的无标定视觉伺服方法的有效性。