论文部分内容阅读
随着城市交通系统建设的快速发展,目前无人驾驶技术受到了越来越多的关注。如何保证高速行驶的无人车的安全性成为了无人驾驶技术的研究重点之一。场景深度推断和自运动检测作为无人驾驶技术的两个关键问题,对它们的深入研究将有助于无人驾驶技术安全性与可靠性的发展。目前激光雷达和GPS等传感器被广泛应用于场景深度推断和自运动检测问题研究,然而,它们普遍存在成本较高、对噪声和对人为干扰敏感等问题。随着照相机技术的快速发展,使得通过较低成本的相机设备来快速获得大量高质量的图像数据成为了可能。本课题旨在利用照相机获取的高质量图像数据来检测场景深度和相机自运动以及检测场景中的目标来感知行车环境。
本文将深度学习技术应用于场景深度检测和相机自运动的问题研究,并利用检测的结果重构视点作为网络的约束。受注意力机制的启发,研究中依据各层网络特征的不同特点,设计了三种基于注意力机制的特征提取模块;根据特征组的重要性,提出一种特征融合模块,通过重标定特征组的权重来融合特征组;根据图像重构的缺点,提出三种损失函数优化模型。实验结果表明,模型可取得比较好的预测精度。
本课题提出了两种方法来检测场景中的目标:基于大卷积的图像分割方法和基于SSD的目标检测方法。在本研究中,图像分割网络被分解成两个子网络,分别作用于图像整体分割和边缘细节的精细分割;还通过结合注意力机制,设计了特征提取模块和特征融合模块。此外,本研究还利用了SSD网络检测目标,通过排斥损失和Focal Loss来优化网络。实验结果显示,上述目标检测网络能取得比较好的性能。
在多个数据集上的对比实验结果表明,结合注意力机制的相机自运动和场景深度检测网络可以有效检测相机自运动和场景深度。本文结合注意力机制和特征融合策略,提出了一种端到端的图像分割算法,该算法可以显著提高图像分割的准确性。此外,本课题还利用排斥损失和Focal Loss提高街景目标的检测效果。
本文将深度学习技术应用于场景深度检测和相机自运动的问题研究,并利用检测的结果重构视点作为网络的约束。受注意力机制的启发,研究中依据各层网络特征的不同特点,设计了三种基于注意力机制的特征提取模块;根据特征组的重要性,提出一种特征融合模块,通过重标定特征组的权重来融合特征组;根据图像重构的缺点,提出三种损失函数优化模型。实验结果表明,模型可取得比较好的预测精度。
本课题提出了两种方法来检测场景中的目标:基于大卷积的图像分割方法和基于SSD的目标检测方法。在本研究中,图像分割网络被分解成两个子网络,分别作用于图像整体分割和边缘细节的精细分割;还通过结合注意力机制,设计了特征提取模块和特征融合模块。此外,本研究还利用了SSD网络检测目标,通过排斥损失和Focal Loss来优化网络。实验结果显示,上述目标检测网络能取得比较好的性能。
在多个数据集上的对比实验结果表明,结合注意力机制的相机自运动和场景深度检测网络可以有效检测相机自运动和场景深度。本文结合注意力机制和特征融合策略,提出了一种端到端的图像分割算法,该算法可以显著提高图像分割的准确性。此外,本课题还利用排斥损失和Focal Loss提高街景目标的检测效果。