论文部分内容阅读
随着科学技术的不断发展与创新,无人驾驶汽车的概念早已映入人们的视野;而传统车辆所呈现的交通拥堵、安全事故频发、环境污染等问题又亟需解决。然而,无人驾驶汽车可以很好地解决了上述传统汽车所出现的一系列问题。无人驾驶的关键技术之一环境感知。即利用车载传感器提取出周围交通环境信息,并对其建模,为自主驾驶行为决策和运动规划提供场景模型。本文分别采用经典特征提取方法和深度学习的方法,研究基于机器视觉的道路边界与多车道线检测、城市道路场景语义分割,研究基于多传感器融合的交通参与者运动状态检测与交通场景建模。主要研究内容如下:1、道路边界、多车道线以及车道线虚实检测。对预处理图像进行形态学处理以及阈值化,近景区域Hough变换,远景区域生成候选曲线,基于像素点统计累加判断车道线或者道路边界。虚实检测对近景区域的二值图进行细化,统计Hough变换检测到的直线上的像素点个数,判定车道线虚实。实验测试表明,虚实检测准确率达90%。2、基于深度学习的城市道路场景理解。采用深度学习方法,构建32层全卷积神经网络,采集大量道路场景样本,对道路场景图像感兴趣区域的实体标记进行标签文件标注,通过样本训练,获取道路边界、虚实车道线、道路、行人、车辆等类别分割模型,用于城市道路场景的语义分割。样本测试表明:对于大类(如天空、道路、车辆、部分车道标线)的分割精度可达90%以上,而小类别(行人、斑马线、部分车道标线)等分割精度有待进一步改进。3、基于多传感器融合的无人车道路环境建模。采用毫米波雷达与单目相机融合的方法,对所提取到的行人以及车辆距离、速度等信息参数进行融合,用于校正融合相机检测结果;基于VS 2013开发平台与OpenCV视觉库应用MFC对话框搭建无人驾驶汽车环境感知系统测控界面,采用多线程编程,同时对车辆、行人以及车道线等信息参数进行提取。