论文部分内容阅读
自动驾驶技术发展到高度自动驾驶与完全自动驾驶阶段受到成本等影响难以落地,开展基础设施智能化势在必行。智能车路协同系统(Intelligent Vehicle Infrastructure Cooperative Systems,IVICS)代表智能交通系统未来发展的新方向。车路协同系统通过路侧单元(Road Side Unit,RSU)进行环境感知,面对的交通场景更大更复杂。本文依托国家重点研发课题“全息交通状态重构与车辆群体协同控制测试验证”,针对现有目标检测方法稳定性差、易误检与漏检等问题,对激光雷达与摄像头的融合策略进行研究,提出了一种稳定性与检测精度兼顾的3D目标检测框架。主要研究内容有:(1)在分析车路协同系统典型应用场景的基础上,结合路侧单元感知技术与数据融合理论,建立了路侧异质传感器空间融合模型,实现激光雷达与摄像头的数据对齐;针对现有的融合算法稳定性差、精确度低等问题,提出了一种基于DCFP(Depth Completion-based Frustum Point Nets)与AVOD(Aggregate View Object Detection network)算法的多传感器多层级融合框架。(2)针对经典Frustum Point Nets算法没有充分利用图像数据中的RGB信息和点云稀疏性的问题,提出一种基于深度补全的改进算法DCFP。在视锥体建议模块中,将原始点云稀疏深度图在RGB图像的引导下深度补全得到密集深度图,再将图像的2D检测结果结合密集深度图进行升维投影得到视锥体点云(Frustum point),最终通过3D实例分割和边界框回归得到目标的3D边界框。(3)针对DCFP算法串行结构的不稳定以及对小目标的检测误差大的问题,将点云与图像数据输入AVOD算法进行二次检测得到3D边界框,通过3D边界框融合方法,将AVOD与DCFP算法检测到的3D边界框做决策级融合处理,得到最终检测结果。将提出的融合方法在公开数据集上进行实验验证,结果表明所提出的方法可以提高目标检测的精确率,相比于F-Point Nets算法,对于“困难”目标的平均检测精度(average precision,AP)提高了1.72%;相比于AVOD算法,对于“困难”目标的平均检测精度提高了1.97%。综合实验结果表明,融合方法兼顾了精度与稳定性,有良好的应用前景。