摘要
随着我国汽车产量和销量的增加,报废车辆的数量也急剧上升。在报废汽车回收工作中,需要采用重载机械臂对废旧汽车进行抓取、移动等动作。现阶段,废旧汽车的定位抓取主要依靠人工操作重载机械臂的控制手柄来完成。控制过程中存在抓取效率低、精度差的问题,并且近距离操作大型机械臂抓取汽车威胁着工人的安全,对人工的依赖已经成为限制废旧汽车回收效率的主要问题之一。因此,本文提出了基于双目视觉的重载机械臂目标识别定位方法,并对系统中的重载机械臂建模和废旧汽车抓取区域的识别、定位进行重点研究。 首先,为完成废旧汽车抓取区域的识别,本文提出了基于神经网络YOLOv4改进的轻量级高效特征融合目标检测网络。针对现有深度学习方法在复杂环境下目标识别中存在网络参数大、检测速度慢的问题,将YOLOv4的主干网络修改为MoblieNetV3并引入深度可分离卷积实现了简化网络结构的目的。在网络中增加改进的注意力机制与自适应空间特征融合ASFF网络,增强网络在复杂环境中的汽车AB柱交叉位置识别能力。其次,为实现对重载机械臂的自动控制,通过对液压重载机械臂的液压杆的伸缩长度进行测量并采用最小二乘法拟合机械臂各轴角度。根据改进D-H参数法构建重载机械臂运动学模型,建立机械臂坐标系统。然后,本文对SURF特征匹配方法进行了改进,将深度学习方法与SURF特征检测方法相结合,只对深度学习识别区域进行特征检测,减少计算量。运用极线约束与RANSAC优化算法对匹配结果进行优化,提升特征匹配的准确度。最后,计算废旧汽车抓取区域特征点的三维坐标,引导重载机械臂完成废旧汽车的定位抓取工作。 实验结果表明,本文提出的基于YOLOv4改进的轻量级高效特征融合目标检测网络模型更小、检测速度更快,在精度上相较于YOLOv4提高2.54%、检测速度提高了28.7%、网络模型大小降低了69.5%。本系统双目系统的标定误差为±0.661mm,废旧汽车重复定位抓取的平均偏差为5.23mm,满足重载机械臂定位抓取废旧汽车的精度要求。本系统还可以应用到其它机械臂的建模和工件的定位抓取等智能制造领域。