论文部分内容阅读
随着传感器技术的不断进步,人类对世界的感知已经从传统的二维成像发展到三维成像。特别是随着激光成像技术的发展,采用激光成像传感器获取单个物体、室内外不同场景的三维点云数据已经广泛普及。三维激光点云数据的与日俱增,使得基于点云数据的物体建模、场景建模,以及在此之上的目标识别、场景理解等技术取得了长足的发展。但是,三维点云配准、目标识别与场景标记,依然是一个具有重要研究价值且富有挑战性的问题。鉴于此,本文围绕上述任务对三维点云智能信息处理展开深入理论与应用研究,在系统分析点云数据特点的基础上,在点云配准、三维目标识别、三维场景标记等方面取得了如下成果。在三维点云配准方面,针对场景中点云特征存在重复不易建立对应关系等问题,提出了一种基于方向角直方图的旋转参数估计方法,将配准问题分解为旋转参数估计与平移参数估计两部分:在旋转参数估计中,基于点云的法向量方向定义了点云的方向角,并基于方向角的直方图统计关系估算点云之间的旋转角度;在平移参数估计中,利用简化的迭代最近点算法求解点云之间的平移矢量。相对于基于特征的三维点云配准算法,该方法能够很好的适用于纹理较少的结构化场景点云配准,并且避免了提取特征的高计算量,大大提高了配准效率。在三维目标识别方面,针对多视图融合三维目标识别中信息冗余的问题,提出了一种融合视图显著性与多视图表征的卷积神经网络,并用于提取三维目标的有效特征。该方法首先对三维目标进行投影成像以得到多视角下的投影图像,接着对投影图像进行显著性分析以判断该投影图像对目标识别的贡献度,然后将投影图像的显著性嵌入到多视图卷积神经网络中以提取目标的有效特征,最后利用线性支持矢量机进行融合识别。该方法能够有效解决多视图融合中信息冗余的问题,有效提高了基于多视图的三维目标识别精度。在三维点云标记方面,针对场景点云标记中有效特征提取困难的问题,本文提出了一种多尺度特征提取与融合的深度神经网络模型。不同于传统的卷积神经网络模型,该模型直接将散乱点云数据作为网络模型输入,将欧式空间嵌入神经网络模型中构建散乱点云的球形邻域结构,并以此为基础进行不同尺度下的特征提取与融合。此外,该模型中对局部特征与全局特征进行叠加融合,进一步提高了网络模型特征学习的有效性。同时,针对场景点云标记中多尺度上下文信息提取效率低、提取不充分等问题,本文提出了一种融合体素卷积神经网络与条件随机场的网络模型。体素卷积神经网络中,利用基于点云的局部网络模型提取点云的局部信息,利用基于体素的网络模型快速提取点云内部区域之间的空间上下文信息,两者的结合能够有效提取点云的局部信息与空间上下文信息。最后,为提高点云标记结果的平滑性,本文采用基于递归卷积神经网络实现的全连接条件随机场模型进行后端优化。通过对多个公共点云数据集上的实验,证明了算法模型的有效性。