论文部分内容阅读
前方车辆多源信息检测技术是先进驾驶辅助系统(ADAS,Advanced Driving Assistant System)和无人驾驶系统领域中的重要研究方向之一。而在目前常用的毫米波雷达与视觉信息融合方法中,由于静态毫米波雷达出射波束角窄和传统机器视觉车辆检测处理时间长精度低,导致其难以准确实时地动态监视并跟踪弯道行驶中的前方车辆目标(以下简称跟踪目标),造成跟踪目标的丢失,甚至引发车辆追尾事故。因此,针对弯道行驶时毫米波雷达跟踪目标丢失和传统机器视觉车辆检测高耗时低精度的问题,提出了基于毫米波雷达及深度学习视觉信息融合的前方车辆检测方法。首先,第二章针对弯道行驶时毫米波雷达跟踪目标丢失的问题,根据毫米波雷达测距测速原理,建立了处于不同行驶车道(直道和弯道)上跟踪目标的毫米波雷达检测模型,借此分析了跟踪目标丢失时弯道半径和自车行驶状态之间的关系,从而提出了面向跟踪目标丢失的毫米波雷达及视觉相机信息融合方法;该方法以跟踪目标的毫米波雷达历史数据信息为状态信息,以跟踪目标的视觉相机图像信息为测量信息,利用无损卡尔曼滤波(Unscented Kalman Filter,UKF)计算出跟踪目标的距离、速度等行驶状态参数,并以此作为下一时刻跟踪目标的状态信息进行持续跟踪,解决弯道行驶时毫米波雷达跟踪目标丢失的问题。其次,第三章针对视觉相机采用传统机器视觉车辆检测方法所带来的高耗时低精度问题,使用了基于卷积神经网络的YOLOv3深度学习算法来进行跟踪目标的检测。并为了加快算法的检测速度,使用剪枝量化的方法对YOLOv3算法模型进行了简化,完成了YOLOv3-tiny算法模型的训练,从而在检测时间及检测精度上达到了实时准确的跟踪目标检测要求。然后,第四章综合以上两方面的工作,建立了毫米波雷达及视觉相机数据信息融合模型,根据坐标转换关系完成了毫米波雷达和视觉相机的空间坐标统一,根据最小公共采样周期完成了毫米波雷达和视觉相机的时间坐标统一,从而搭建了基于毫米波雷达及深度学习视觉信息融合的前方车辆检测系统(以下简称融合系统);在此融合系统中,利用毫米波雷达生成跟踪目标的感兴趣区域,利用YOLOv3-tiny深度学习算法完成跟踪目标的验证,根据制定的融合规则算出融合后的跟踪目标,最终利用UKF算法实现对跟踪目标的实时跟踪。最后,第五章验证了融合系统跟踪目标检测方法的有效性。分别进行了融合系统各部件的选型,安装并调试标定了由毫米波雷达及视觉相机组成的融合系统,并利用该系统及基于高精度GPS互定位的VBOX检测设备分别获取跟踪目标状态信息,完成了在不同弯道曲率半径下的跟踪目标检测实验。通过对比分析VBOX数据与融合系统检测得到的跟踪目标数据,验证了弯道跟踪目标丢失算法有效解决弯道目标丢失问题。