论文部分内容阅读
当前,我国农业生产正朝着规模、多样、精确化的方向发展,劳动力成本迅速上升,同时农业劳动力资源也逐渐向其它社会产业转移,并且在不久的将来人口老龄化问题也日渐突出,所以农业机器人技术进入农业领域已经成为现实需要。目前,国内和国外关于农业机器人的研究现状,最集中的领域是果蔬采摘机器人的研究。本课题以陕西渭北高原的苹果品系为对象,研究双目立体视觉下自然场景中成熟苹果的识别和定位问题。自然环境条件下,在理解成熟苹果目标、树叶和树枝等背景颜色信息的基础上,对拍摄的图片在RGB、HSV、HSI三种颜色模型中各个分量及其直方图进行分析比较,并对RGB颜色空间各分量进行色差运算,最后选择直方图呈现单峰分布的R-G色差图作为后续的图像分割。通过RGB原图和R-G色差分量图边缘检测的比较,可以明显地观察到,R-G色差分量图像“漏检”了苹果背景,保留了苹果目标,进一步印证了前期图像预处理的方法是合理和和正确的选择。为了实现苹果目标的分割,本文应用三种阈值分割方法,经比较,选择OTSU法进行图像分割,并引入类平均方差,对OTSU法进行改进。通过改进OTSU法与传统OTSU法比较,改进法具有更好的自适应性和抗噪性,从分割效果映射图可以看出,该方法较为完整地保留了苹果的轮廓信息。利用数学形态学法对图像进行腐蚀和膨胀运算,以消除孤立点和毛刺等。在对图像分割后的二值图像区域标记后,提取统计数量值和二值图像连通区域的面积、周长、圆度和质心等相关特征量,并对其在识别和定位研究中的作用进行说明和讨论。统计数量值用于调整采摘机器人姿态,确保其准确抓取苹果目标和统计识别率;面积和圆度两个特征量的结合为保证机器人在可控范围之内,机械手每次能够抓取唯一的最佳苹果目标提供了重要的判断依据;质心可作为立体匹配中特征匹配点。最后,统计总识别率为89.9%。苹果目标空间匹配和定位的实现,采用张正友相机标定两步法对左右两相机进行标定。本文提出一种基于质心、果梗、标记点的双目立体视觉测距方法,即采用质心、果梗、标记点作为特征匹配点,通过极线约束的图像匹配算法完成苹果目标的匹配。空间定位中,根据深度的计算原理,得出有效焦距、视差和基线长度确定苹果目标深度值。测距实验结果显示,在实验室环境下,工作距离在300-1000mm时,标记点深度计算平均误差率为0.63%,质心平均误差率为3.54%,本文采用的定位方法可满足苹果采摘机器人视觉系统在大多数采摘作业环境下的工作要求。