论文部分内容阅读
复杂场景中的多目标检测以及方位测量是智能机器人系统的关键功能,机器人需要实时检测、识别周围环境中的物品类别,并获取各物品的距离及坐标,为其能够对不同的物品做出恰当反应、进行运动规划奠定基础。本文主要提出了两种可在嵌入式系统上实时运行的轻量化YOLO算法,设计并实现了基于YOLO的双目视觉多目标检测与测量系统,完成算法在机器人操作系统(ROS)中的封装。为提高处于复杂非结构化环境中的机器人的目标检测能力,论文采用深度学习技术构建机器人的目标检测系统。综合考虑移动机器人的负载能力、计算资源,通过对比多种基于深度学习的目标检测模型,最终选择在实时性及准确率更佳的YOLOv3算法基础上进行改进,使其能够在机器人携带的嵌入式系统上快速检测目标。本文在已有的精简版YOLOv3-tiny的基础上,提出两种轻量化方案,包括基于“删减”实验的YOLO-mini和基于深度可分离卷积的MYOLO。在嵌入式设备Jetson TX2上进行算法的速度与精度测试后,采用YOLO-mini作为系统的目标检测网络。在获得图像内目标区域后,实现了基于双目相机的目标位姿测量,计算出深度图,获取各个目标的距离信息,从而得到目标在相机坐标系下的三维坐标。进而,分别将目标检测与双目测距封装为不同的ROS节点,完成在Jetson TX2上的部署,方便与机器人的导航、定位、抓取等功能集成,推进算法的工程应用。在检测系统的实验测试中,从开源数据集COCO中筛选室内物品种类组成新的数据集,训练改进后的目标检测模型,并计算其平均检测精度(mAP,45.9%),使用不同距离下方形盒子进行双目测距并评估测距误差(1到3米距离范围内最大误差小于2%)。实验表明,机器人多目标的检测与测量系统精度及运行速度(23帧/秒)均满足移动机器人的实际使用需求。