论文部分内容阅读
随着社会的发展,社会对交通安全的要求越来越高,缓解严峻的交通安全形势,将有助于社会更和谐稳定地发展,通过技术手段对驾驶员行为进行检测,并采取适当的形式进行驾驶行为干预,能很好地降低交通事故的风险,但现阶段关于驾驶行为检测的研究往往只对理想环境下的局部驾驶姿态进行检测,同时国内驾驶的数据集不足,研究的本地化程度较差。因此,本研究基于营运货车驾驶员驾驶行为检测的需求,构建本地化数据库,并利用卷积网络轻型化技术,搭建轻型卷积神经网络,实现驾驶姿态的检测,并通过姿态的拆分和组合,实现驾驶动作的识别。
首先,基于前人研究,提出五类危险驾驶行为:“操作仪表盘、导航”,“打电话”,“单手驾驶”,“发短信、发语音”和“抽烟、吃东西、喝水”,设计并收集了201份有效问卷,基于问卷数据得出在营运货车群体普遍存在五类危险驾驶行为;同时基于390段自然驾驶情况下的视频数据,并将驾驶行为拆分成六类驾驶动作:吃东西等、拿放东西、打电话、单手驾驶、操纵档位、正常驾驶,构建姿态回复时间、视线偏移时间等物理指标,实现对驾驶动作的危险性分析。
其次,分析营运货车驾驶舱的数据采集环境,设计双视角数据采集方案并采集数据,随后基于固定视角下的双视角图像的特殊性及驾驶动作识别的需求,对数据进行冗余数据剪除和压缩,构建包含109000张图片的SEU-HJSRG数据集,并考虑识别模型的开发过程和节省计算资源,构建包含54000张图像18个类别的短暂和持续型状态量数据集、包含10000张图像2个类别的视线偏移量数据集。
再次,针对视线偏移检测的特殊性,构建仅利用单视角头部数据的小型卷积神经网络,模型精度达到 0.99。同时基于网络轻型化技术,设计宽视角单元、深视角单元等,搭建双输出卷积神经网络,实现持续型和短暂型状态量的识别,对于持续和短暂型状态量,模型的识别精度分别达到 0.99 和 0.97,并且模型通过共用前几层识别图像的浅层特征,相对于分别识别两个视角图片,识别时间缩减20%。
最后,整合上述模型构建联合识别模型,实现驾驶姿态的识别,通过3段视频的示例分析,系统识别单张图片时间小于 0.19 秒,识别精度约为 0.96,模型实时性和精度良好。同时,整合上述包括视频处理、图片预处理技术、以及视线偏移检测、持续和短暂型状态量识别模型,设置超参数g和T构建个性化驾驶动作识别系统。以基于流媒体的实时驾驶动作分析和基于视频数据的批量危险驾驶动作检测两个方面的应用为例,分析了系统在驾驶安全应用前景。
首先,基于前人研究,提出五类危险驾驶行为:“操作仪表盘、导航”,“打电话”,“单手驾驶”,“发短信、发语音”和“抽烟、吃东西、喝水”,设计并收集了201份有效问卷,基于问卷数据得出在营运货车群体普遍存在五类危险驾驶行为;同时基于390段自然驾驶情况下的视频数据,并将驾驶行为拆分成六类驾驶动作:吃东西等、拿放东西、打电话、单手驾驶、操纵档位、正常驾驶,构建姿态回复时间、视线偏移时间等物理指标,实现对驾驶动作的危险性分析。
其次,分析营运货车驾驶舱的数据采集环境,设计双视角数据采集方案并采集数据,随后基于固定视角下的双视角图像的特殊性及驾驶动作识别的需求,对数据进行冗余数据剪除和压缩,构建包含109000张图片的SEU-HJSRG数据集,并考虑识别模型的开发过程和节省计算资源,构建包含54000张图像18个类别的短暂和持续型状态量数据集、包含10000张图像2个类别的视线偏移量数据集。
再次,针对视线偏移检测的特殊性,构建仅利用单视角头部数据的小型卷积神经网络,模型精度达到 0.99。同时基于网络轻型化技术,设计宽视角单元、深视角单元等,搭建双输出卷积神经网络,实现持续型和短暂型状态量的识别,对于持续和短暂型状态量,模型的识别精度分别达到 0.99 和 0.97,并且模型通过共用前几层识别图像的浅层特征,相对于分别识别两个视角图片,识别时间缩减20%。
最后,整合上述模型构建联合识别模型,实现驾驶姿态的识别,通过3段视频的示例分析,系统识别单张图片时间小于 0.19 秒,识别精度约为 0.96,模型实时性和精度良好。同时,整合上述包括视频处理、图片预处理技术、以及视线偏移检测、持续和短暂型状态量识别模型,设置超参数g和T构建个性化驾驶动作识别系统。以基于流媒体的实时驾驶动作分析和基于视频数据的批量危险驾驶动作检测两个方面的应用为例,分析了系统在驾驶安全应用前景。