论文部分内容阅读
视觉引导无人机着陆是目前研究的一个热点问题,其中位姿估计是决定无人机着陆能否成功的关键。本文研究了基于红外合作目标的无人机着陆位姿估计方法。首先,研究了摄像机的投影模型,建立了无人机视觉着陆的坐标转换关系。在此基础上,设计了基于视觉的无人机着陆位姿估计方案。针对现有图像分割方法对红外合作目标分割效果不理想的问题,采用了一种自适应的区域生长分割方法。即根据图像中红外合作目标亮度较高的特点,寻找到包含在合作目标上的生长核,建立生长规则,分割出目标。实验表明,该方法比传统的双otsu法和最大熵法分割效果好,适用性强。然后,对本课题组已有的基于特征线的位姿估计方法中特征线提取、滚转角和偏航角估计中存在的不足,进行了改进研究,即为本文中的基于投影矩阵的无人机着陆位姿估计方法。该方法通过分类合作目标上各点到T形顶边的距离,确定合作目标的各边及其角点。另外,研究了灭影线在图像上可能的两种位置与滚转角的关系,解算出了滚转角。用合作目标的对称中心线代替原方法的主轴线以解算出偏航角。实验表明,改进后的方法较基于特征线的方法精度提高明显,鲁棒性更高。最后,针对现有的基于投影矩阵的方法存在需要已知摄像机的焦距信息,且估计的俯仰角和高度精度不高及其计算复杂的问题,提出了基于合作目标几何模型的位姿估计方法。即分析研究了合作目标各个几何特征量与无人机位姿参数的关系,建立了位姿关系的几何模型。通过解算可获得无人机相对合作目标着陆所需的全部位姿参数。两种方法的对比仿真实验结果表明,基于几何模型方法与投影矩阵方法相比,姿态角的估计误差降低了20%左右,位置误差降低了40%左右。此外,红外图片实验的结果显示,在30m范围内,基于几何模型算法的位置参数估计精度约为0.8m,即为2.67%;高度和俯仰角的估计精度分别为0.7m和3°左右。与韩国航天研究中心Lee提出的方法相比:基于几何模型方法估计的位姿参数平均精度较高;同时无须借助惯导设备,仅通过视觉系统就可获取无人机着陆的全部位姿参数;并且能够适应于摄像机变焦的情况。