论文部分内容阅读
我国是世界最大的服装出口大国,服装生产中质量控制与检测非常重要,服装疵点检测是其中最为重要的部分。人工服装疵点检测不仅劳动强度高、心里负担大,而且效率低、误差大,能否借助于计算机图像处理与分析技术和现代数学的疵点自动识别技术成为人们关注的课题。本文研究了适用于服装疵点快速、准确的检测方式和方法的多个环节的解决方案,并尝试了部分服装疵点的在线检测与分析。这在目前大多服装疵点的在线检测还处于探索阶段,与实用存在距离的现状下,对解决实用服装生产中疵点的自动检测具有学术和实用价值。本文主要的研究贡献如下:(1)双图像融合方法仿真实现本文给出了小波多尺度分解的图像融合方案。提出了图像的混合多分辨率分析设想,将不同多尺度几何分析方法之间具有互补特性的不同图像变换方法以串联的形式结合,获得图像的混合多分辨率分解。构建了混合多分辨率分析图像融合框架,在混合多分辨率分解域内对分解系数进行融合,然后通过逆变换得到融合图像。结合小波变换与Curvelet变换的互补特性构造了混合小波与Curvelet变换。传统多聚焦图像的融合图像往往会损失源图像部分清晰特征,本文通过模拟手工剪与贴方法,构建了分割合并相结合的多聚焦图像区域特征融合框架,提出了依据图像清晰测度直接对图像进行分割,进而实现区域级多聚焦融合的设想,运用图像空间频率和形态小波变换系数区域清晰度标准设计区域级图像算法。采用像素邻域空间频率作为其清晰度测量,结合形态学算子直接得到清晰区域与模糊区域的划分。并以两幅不同角度拍摄的有两个印花疵点和织物疵点的多聚焦图像为对象,进行了双图像融合方法效果的实际验证。(2)服装疵点图像的预处理仿真实现对浅易纹理疵点(纹理的灰度值为服装疵点的灰度值的70%以下,含70%)图像,通常进行预处理过程有消噪、图像增强等。为了凸现图像中疵点区域的结构特征,采用对图像二值化的处理,使疵点区域与背景分离。并以浅易纹理缝线为例详细介绍了浅易纹理疵点图像预处理过程。图像处理结果显示缝线线迹非常清晰的提取出来了,疵点比较完整的保留在线迹上。对繁杂纹理疵点(纹理的灰度值为服装疵点的灰度值的70%以上到85%,含85%)图像,进行的图像预处理过程有消噪、图像增强等。这一类的疵点图像最重要图像处理方法是边缘检测。并以繁杂纹理缝线为例详细介绍了繁杂纹理疵点图像预处理过程。图像处理结果显示虽然提取的线迹没有原缝线图像那么清晰,但大致的疵点特征也都完整的保留了。对超繁纹理疵点(纹理的灰度值为服装疵点的灰度值的85%以上)图像,进行的图像预处理过程有消噪、图像增强等。为了将疵点部分凸现出来,需要进行疵点部分的局部增强。由经向、纬向类疵点在灰度图像上表现。对于超繁纹理疵点,以缝料皱褶疵点图像为例介绍了超繁纹理疵点图像预处理过程。图像处理结果显示虽然提取的疵点特征没有原图像那么清晰,但大致的疵点特征也都完整的保留了。(3)服装疵点图像的特征提取仿真实现为了使用尽可能少的特征量达到最优的分类能力,对八种纹理特征彼此之间的相关性进行了考察,两个特征的相关系数越小,即信息内容差别大,说明两个特征间相互独立;对于图像来说,相似性越少,则图像的信息冗余量越小,对疵点的分类越有利,且计算量减少。同时,选择特征相关系数之和较小的六个特征值:均值、标准偏差、平滑度、三阶矩、一致性和熵6个纹理特征参数来描述区域,作为最终的描述不同类型的纹理特征。并对图像处理后浅易纹理缝线疵点图像、繁杂纹理疵点图像、超繁杂纹理疵点图像为对象作了均值、标准偏差、平滑度、三阶矩、一致性和熵6个纹理特征计算分析,提取的参数值比对发现,浅易纹理缝线疵点图像(如重线疵点)均值、标准偏差、三阶矩明显的区别于标准线迹。繁杂纹理疵点图像(如重线疵点)均值、标准偏差、三阶矩明显的区别于标准线迹。超繁杂纹理疵点图像(如缝料皱褶疵点)均值、标准偏差、三阶矩明显的区别于标准线迹,这些参数可作为识别服装疵点和服装疵点分类的重要数据。将它们输入到神经网络进行训练就可以得到关于这几种疵点的识别和分类器。(4)服装疵点图像的模式分类仿真实现本研究使用BP、径向基(RBF)神经网络构成服装疵点图像分类器,并重点给出了BP网络及其改进。从分别对结合形态算子与空间频率的双(多)图像融合算法图像融合后的2000份服装浅易纹理疵点(正常线、断线、重线、跳线、平纹面料、平纹面料疵点、水印疵点、染色疵点各250份)、繁杂纹理疵点(标准线、重线、针织物面料、针织物疵点、梭织物面料、梭织物疵点、机织物面料、机织物疵点各250份)、超繁纹理疵点(缝料标准线迹、缝料皱褶疵点、经向疵点、浮经疵点、吊经疵点、纬向疵点、纬纱疵点、破洞疵点各250份)样品分类结果看,经典BP算法无法对服装疵点图像进行分类。对BP网络进行了改进,引入动量及自调节1rBP梯度递减训练函数和Levenberg-Marquardt优化算法。动量法可抑制网络陷于局部极小。L-M优化算法比BP及其它改进算法叠代次数少,收敛速度快,("trainlm"的训练步数只要19步)精确高。从实验结果看,训练函数"traingdx"的正确率约75%,训练函数"trainlm"的正确率约92%。结果令人满意。从分别对结合形态算子与空间频率的双(多)图像融合算法图像融合后的2000份服装浅易纹理疵点、繁杂纹理疵点、超繁纹理疵点样品分类结果看,基网络算法可以实现对服装疵点分类。实验得知:正确率约85%,结果也令人满意。说明不仅BP网络可以对服装疵点图像模式进行识别,其它网络也行,只是存在一个最优的问题。(5)双图像获取系统方案设计进行了双图像获取系统的自由度和选取基线的基本计算过程,对矩阵视觉平台的机械驱动控制实现的关键问题作了详细的介绍。设计了双图像获取系统主要装置硬件结构,用两个摄像头模拟人眼,通过其背后的十字机构实现上下和左右的转动。双图像获取系统主要装置机构的设计可实现水平扫视,俯仰,摄像头转向,三者能实现快速、动态地交互调整。采用了四个直流直接驱动电机驱动实现四个自由度的控制。采用89C51单片机作为主CPU,给出了软件流程图。采用PID控制算法实现单片机对目标速度的反馈控制,在精度和实现性上都比较完整和成熟。要在工业上实现服装疵点检测,不需要很复杂的步骤和苛刻的条件。客观、精确地实现对服装生产中自动疵点检测,使服装生产中实现优质自动化质量控制与检测控制成为可能。是本文研究的最主要的动因。本文提出的适用于服装生产中疵点检测的服装疵点视觉检测系统各个环节的解决方案,为实现服装疵点的在线测量和检测打开了一个新的思路。对于今后研发此类系统具有一定的参考价值。