论文部分内容阅读
机器视觉是机械制造及其自动化领域的研究热点,将机器视觉应用在工业机器人上,实现对运动目标检测、分割、跟踪等任务是智能制造的发展趋势。其中,目标分割是将图像或视频帧中的目标从背景中分离出来,它是后续目标识别和跟踪的前提。现有工业视觉检测平台上通常采用的是基于阈值的分割算法,在复杂背景或光照阴影变化等动态场景情况下其分割精度并不理想。本文在快速目标分割算法的基础上提出了改进的目标分割方法,结合了背景学习的思想,通过对背景模型的训练使分割效果得以提升。进一步结合了全卷积神经网络学习模型,通过对工件图像的学习实现了动态场景下工件目标的高精度分割。本文的研究内容主要包括:首先,介绍了工业机器人视觉检测平台的硬件设施及现有的分割算法,并展示了其分割效果。其次,介绍了非限制场景下运动目标快速分割这一方法的基本原理和实现步骤,将本次实验平台上获取的图像数据应用在该算法上,得到了分割结果并与工业机器人平台现有算法的分割结果进行比较。再次,在非限制场景下运动目标快速分割这一方法的基础上,提出了通过混合高斯模型对传送带背景进行学习的方法,实现了工业机器人平台上运动工件目标的高精度分割。并与前几章中方法的分割结果进行了比较。最后,结合全卷积神经网络模型训练方法,用于工业机器人视觉检测平台上动态场景工件目标分割。首先对全卷积神经网络(FCN)模型结构和训练方法进行介绍,然后通过运动工件图像集对FCN模型进行训练并得到测试结果,实现了动态场景下工件目标的高精度分割。最后将前几章方法的分割结果进行了综合的对比分析。本文将非限制场景下快速目标分割方法应用于工业机器人平台上的动态工件分割,并在该方法基础上提出了背景学习的方法来提高分割精度,并结合全卷积神经网络的模型训练方法,实现了动态场景下工件目标的高精度分割,为解决工业机器人视觉系统在复杂场景下的动态工件目标准确定位提供了方法和依据。