论文部分内容阅读
智能驾驶汽车通过多种传感器获取信号,感知车辆周围环境以及可能发生的危险,从而做出驾驶决策。与其他信号相比,视频信号包含丰富的语义信息,并且采集设备成本低廉,采集过程方便;然而视频信号也具有背景复杂、运动模糊、目标遮挡等问题,给交通场景理解带来特殊的挑战。本文针对交通场景风险估计问题,提出了对交通风险等级划分的原则,并构建了一种对行车视频中交通场景的风险性进行判断的方法。
本文首先利用YOLO算法与DeepSort算法构建检测与跟踪模型,对交通场景中的交通目标进行检测与跟踪,获取目标位置、类别以及轨迹等信息,并分析了他们用于智能驾驶系统的可能性,为交通场景的理解与风险性估计提供支持。
然后,在交通目标检测与跟踪的基础上,本文研究了一种基于视觉的计算交通场景复杂度的方法。场景复杂度包括静态复杂度和动态复杂度两方面。静态复杂度根据交通目标的类别、位置及尺寸等信息进行加权计算得到,从表观特征评估场景的复杂程度;在动态方面,为了衡量轨迹间的形状相似性,本文以长度和角度两种度量标准计算交通目标行进轨迹间的豪斯多夫距离,并计算这些距离的离散性得到动态复杂度,反映了交通目标行驶的有序程度。此外,本文从场景复杂度和驾驶员实际驾驶体验两方面提出了交通场景风险等级划分的原则,将其划分为低等风险、中等风险、高等风险和事故级别四类。本文还从多种渠道收集了车载摄像头拍摄的视频,为它们提供了风险等级标注,制作了交通场景风险估计数据集。
最后,本文提出了一种基于双流卷积神经网络的交通场景风险估计方法。该方法包括视频预处理与交通场景风险估计网络两部分。视频预处理通过稀疏时间采样、计算光流等步骤将原始视频信号整理为神经网络两条分支的输入;交通场景风险估计网络包括空间流网络和时间流网络两条分支,分别提取视频中的高级表观特征和高级运动特征,将两条分支的输出向量融合并通过分类器得到交通场景风险等级。本文在网络中还设计了目标引导的空间注意力模块、通道注意力模块和加权时移模块帮助网络更好地理解交通场景。
本文提出的交通场景风险估计方法在真实数据集中得到了验证,在准确率和速度等指标方面均有较好表现,证明了提出的交通场景风险估计方法是有效且可行的。
本文首先利用YOLO算法与DeepSort算法构建检测与跟踪模型,对交通场景中的交通目标进行检测与跟踪,获取目标位置、类别以及轨迹等信息,并分析了他们用于智能驾驶系统的可能性,为交通场景的理解与风险性估计提供支持。
然后,在交通目标检测与跟踪的基础上,本文研究了一种基于视觉的计算交通场景复杂度的方法。场景复杂度包括静态复杂度和动态复杂度两方面。静态复杂度根据交通目标的类别、位置及尺寸等信息进行加权计算得到,从表观特征评估场景的复杂程度;在动态方面,为了衡量轨迹间的形状相似性,本文以长度和角度两种度量标准计算交通目标行进轨迹间的豪斯多夫距离,并计算这些距离的离散性得到动态复杂度,反映了交通目标行驶的有序程度。此外,本文从场景复杂度和驾驶员实际驾驶体验两方面提出了交通场景风险等级划分的原则,将其划分为低等风险、中等风险、高等风险和事故级别四类。本文还从多种渠道收集了车载摄像头拍摄的视频,为它们提供了风险等级标注,制作了交通场景风险估计数据集。
最后,本文提出了一种基于双流卷积神经网络的交通场景风险估计方法。该方法包括视频预处理与交通场景风险估计网络两部分。视频预处理通过稀疏时间采样、计算光流等步骤将原始视频信号整理为神经网络两条分支的输入;交通场景风险估计网络包括空间流网络和时间流网络两条分支,分别提取视频中的高级表观特征和高级运动特征,将两条分支的输出向量融合并通过分类器得到交通场景风险等级。本文在网络中还设计了目标引导的空间注意力模块、通道注意力模块和加权时移模块帮助网络更好地理解交通场景。
本文提出的交通场景风险估计方法在真实数据集中得到了验证,在准确率和速度等指标方面均有较好表现,证明了提出的交通场景风险估计方法是有效且可行的。