论文部分内容阅读
针对纺织厂转型升级过程中,传统视觉技术对于多种颜色纱筒识别定位准确率较低的问题,提出了一种新的双目视觉纱筒识别定位方法。首先,用MobileNet V3替换VGG16作为改进SSD(single shot multibox detector)深度学习算法的主干特征提取网络,并引入特征融合模块,提升了网络浅层的特征提取能力;其次,利用双目相机采集的左侧纱筒图像作为数据集,完成改进SSD深度学习算法的训练和测试;最后,将双目校正的纱筒图像输入算法进行识别,并通过双目视觉技术实现纱筒的定位。实验结果表明,