摘要
苹果产业作为我国农业经济的重要组成部分,其产业化发展是推动农业经济发展的重要引擎。近年来,随着农业劳动力的流失和成本的增加,智能化的采收装备逐渐成为提高农业生产效率和减少人力依赖的关键途径。苹果采摘机器人能够大幅减少人力投入,降低苹果生产成本,提高采摘效率。本文以非结构化果园环境下的采摘期富士苹果为主要研究对象,针对当前苹果采摘机器人在快速、准确识别和定位苹果时面临的诸多挑战展开研究。在苹果采摘机器人的应用场景下对富士苹果的成熟度、果径测定与精准定位方法进行研究,设计了集苹果成熟度检测模型、果径测定与精准定位算法为一体的苹果采摘机器人视觉系统,促进了果园管理和苹果采摘的现代化。主要研究内容包括以下几个方面: (1)搭建了视觉采集系统并对其进行优化。主要包括深度相机的选型与安装以及优化策略。首先,通过对不同深度相机原理的研究,结合系统需求,选择Realsense D435深度相机,并确定了最佳安装位置,以保证苹果成熟度检测与定位的准确性。其次,选用棋盘格标定方法对彩色摄像头进行标定并去除彩色图像的畸变,以保证深度数据与彩色图像对齐时的精度。结合基于时间与双线性插值的深度数据滤波算法,解决了深度数据捕获不稳定的问题。提出一种目标检测框小区域内的深度数据优化算法,用于苹果表面深度数据的优化,从而获得准确且连续的单体苹果果面深度数据。进一步提升了系统的性能表现,为后续的成熟度检测和定位提供了可靠的数据支撑。 (2)构建了苹果成熟度检测模型。选择了 YOLOv5s作为基础模型,通过引入VoVGSCSP和GSConv等优化模块对其进行了改进,以提高模型的特征融合能力、推理速度并减少模型参数量。在改进的模型中,采用了双重注意力机制(GAM),增强了对苹果颜色和纹理特征的提取能力。所提出的YOLOv5s-GGV模型在采摘期苹果识别准确率上相较原始模型提升了 16.4%,与Faster R-CNN、Mask R-CNN、SSD512和YOLOv7目标检测模型相比,YOLOv5s-GGV的mAP@0.5分别提升了 6.6%、5.5%、15.3%和10.1%。改进后的模型对采摘期富士苹果的检测准确率达到了 98.95%,检测速度为155帧每秒,满足了采摘机器人对模型准确率与速度的要求。 (3)提出了基于深度相机技术的精准定位方法。首先采用颜色阈值分割的方法提取目标框内苹果轮廓并拟合为圆形。然后,结合目标苹果深度与相机的视场角,计算出当前苹果图像中像素面积与实际面积的换算关系,用于测量苹果的果径。针对非结构化果园中苹果的生长姿态,提出了一种基于苹果轮廓中心像素点与果面距相机的最小深度结合的定位点确定方式。确定了相机与机械臂手在眼外的配合方式,并推导出相机与机械臂之间的位姿关系,以此计算出定位点的三维坐标,实现苹果的精准定位。 (4)基于搭载并联机械臂的苹果采摘平台,分别在实验室内与果园中进行试验。首先在实验室内进行了苹果果径测定与定位试验,试验结果表明,在机械臂坐标系下XYZ轴上的平均定位误差约为1.96 mm,经图像畸变矫正与深度数据处理后果径测定误差在标准允许的±5%范围内、平均定位误差减小了 1.16 mm;此外,采用搭载并联机械臂的苹果采摘平台进行田间试验,共标记了 100个苹果作为试验对象,对采摘期苹果目标的检测准确率为96.5%、果径测定成功率为93.3%、定位成功率为94.4%。