论文部分内容阅读
近年来,自动驾驶技术飞速发展,而感知技术作为自动驾驶技术的关键技术之一,感知系统能否快速且精准地识别目标物体是自动驾驶车辆能否完成决策和控制的决定性条件。本文结合无人驾驶方程式赛车的具体应用场景,针对图像数据中光线不足、目标较小与目标遮挡等复杂因素导致目标检测困难的问题,本文提出了基于YOLO v4模型的相机目标检测算法;针对单一传感器存在缺陷的问题,本文提出了基于AVOD模型的相机和激光雷达融合目标检测算法。首先,构建基于YOLO v4模型的相机目标检测算法网络。选择真实赛道场景中的锥桶作为检测的目标物体,在真实赛道场景下采集视频数据,通过分割视频帧处理获取图像并进行标注,得到图像的训练集和测试集。在数据集上进行训练,对比YOLO v4、YOLO v4-tiny和YOLO v4-tiny-3l三种模型在同一数据集上的检测效果,实验表明基于YOLO v4模型的相机目标检测算法具有优异的性能。其次,构建基于AVOD模型的传感器融合目标检测算法网络。对基于AVOD模型的传感器融合目标检测算法的原理和网络结构进行研究,包含了数据预处理、特征提取、候选区域生成、目标检测及其采用的损失函数。利用开源的KITTI数据集进行算法的训练验证。对算法的训练和检测结果进行分析,表明基于AVOD模型的传感器融合目标检测算法进行3D目标检测的效果良好。最后,搭建无人驾驶方程式赛车的目标检测系统。在ROS系统中,搭建基于YOLO v4模型的目标检测系统并部署到无人驾驶方程式赛车上,在弱光条件、强光条件与锥桶密集场景下进行实车验证。结果表明,目标检测系统针对目标尺寸较小、目标存在重叠遮挡与光照条件多样等复杂赛道场景,能实时且准确地识别锥桶目标,满足无人驾驶方程式赛车决策层对感知系统的需求。