论文部分内容阅读
在工业机器人实现的自动化分拣、搬运、检测系统中,物体识分类技术一直是研究的重点,它是解决工业机器人物体跟踪、行为分析、场景理解等其他任务的基础。应用较为广泛的分类方法是通过传统特征提取方法提取图像特征、用提取到的特征训练分类器,得到适用于当前场景的分类模型,而图像特征设计的好坏将直接影响分类准确率。卷积神经网络可以自动学习得到图像特征,避免手工设计特征的复杂过程,并且能够克服图像形变、遮挡、光照变化等影响,目前在图像分类领域中得到广泛关注。但在特征提取过程中,卷积神经网络需要调整大量参数,训练时间较长且容易过拟合。本文就工业机器人视域下的分类问题展开相关研究,具体如下:(1)收集资料,参阅文献,对工业机器人视域下的物体分拣、搬运、检测系统的视觉问题研究现状做出概述。然后,针对工业机器人视域下分类中的特征提取问题,对基本视觉特征提取和视觉特征表达的相关原理和算法做出综述。(2)介绍了神经网络的结构以及在分类任务中的优势,重点介绍了卷积神经网络的层级结构。(3)针对传统卷积神经网络参数量过大、训练时间长、需要特别的调参技巧等问题,提出了基于局部线性嵌入的深度学习框架(Locally Linear Embedding Network,以下简称 LLENet)。LLENet 不采用反向传播机制调整卷积核参数,而是从训练样本中通过局部线性嵌入算法提取卷积核,避免了传统卷积神经网络通过优化方法调节网络参数的复杂计算过程。与传统卷积神经网络类似,在提取到卷积核后,LLENet级联卷积层、下采样层、非线性层,最后将从训练样本中提取到的图像的特征用于训练支持向量机或K最近邻分类器,得到完整的图像分类模型。本文在MATLAB R2012a上进行了 LLENet分类模型的试验:首先,在从工业机器人视域下采集到的工件图片集WorkPiece和MNIST-1数据集上的试验结果表明,该模型比PCANet和KPCANet平均分类准确率高,其中一个卷积层的LLENet在上述两个数据集中的分类准确率均可以达到97%以上,远高于PCANet和KPCANet;然后,在Caffe框架下用WorkPiece数据集训练了基于LeNet-5的工业机器人视域下分类模型,验证集平均分类准确率超过95%;最后,模拟工业现场训练样本量不足时的分类场景,使用WorkPiece数据集的子集WorkPiece-1数据集在预训练好的LeNet-5分类模型中做微调(fine-tuning),验证集平均分类准确率达到93%以上。试验表明,本文提出的LLENet在分类准确率、算法复杂度等方面优于传统卷积神经网络模型,有利于提高工业机器人物体分类准确率;当训练样本数量不足时,通过微调预训练好的LeNet-5也能够得到较高的分类准确率,适用于工业机器人视域下的分类问题。