摘要
工业领域的智能化目标检测和目标抓取作为自动化作业方向的重要任务,有着重要的应用价值。在工业环境中,当机器人开始操作工业场景中可用的标准工具和设备时,它们需要识别、抓取目标并知晓用途。针对当前深度学习Yolo框架在工业目标检测、抓取领域缺乏深入研究这一问题,本文着重于在以下三个方向进一步深入研究:1)基于网络结构改进YoloV3框架,提升其在工业工具检测数据集中的精度;2)基于损失函数改进YoloV3框架,提升框架在2D旋转抓取框检测任务中的精度;3)进一步探究YoloTiny在工业伺服系统中的应用。 针对工业目标检测方向,本文对Yolo框架结构做出了如下改进以提升目标检测精度:设计了多尺度上采样融合结构促进尺度间的特征融合;迁移了可变形卷积单元改进残差模块的特征提取能力。对于工业目标自动抓取这一方向,研究人员提出了多种基于深度神经网络的抓取框检测模型。这些模型通常采用旋转锚框作为先验信息并在康奈尔抓取数据集上达到了领先的精度。然而,其损失函数中不同参数之间坐标系并不一致,影响了模型的回归过程。为解决上述问题,本文提出了一种新的旋转框回归损失。该损失将预测框和标注框之间的中心点距离旋转到与锚框相同的方向,并将角度损失和长宽损失转化为方向因子和尺度因子来促进模型的训练。对于实际工程问题,本文介绍了智能转向架转运系统并将YoloTiny模型应用于该视觉伺服系统中。该系统通过YoloTiny模型检测关键区域,排除图像中其余的干扰区域帮助圆形检测算法完成精准定位,实现了高铁转向架的自动化抓取、放置功能。 最终,本文模型在工业工具数据集上的MAP相比原始YoloV3提升3.6%,在康奈尔抓取数据集上的精度超过了近年来先进的抓取框检测模型(低IoU阈值提升:1.2%,高IoU阈值提升:4.4%)。对于实际工程,数据分析和现场实验证明了通过视觉目标检测算法,该系统能智能化的控制相关机器的定位、旋转,提升了高铁转向架系统的转运效率。