摘要
6D位姿估计是指获取目标物体从世界坐标系到相机坐标系下的刚性转换,包括三维旋转量和三维平移量,其意义在于能够获得该物体的精确位姿,用于支撑对物体的精细操作。在“中国制造2025”的大背景下,利用具有视觉感知能力和先进算法的工业机器人来估计零件6D位姿并进行自主抓取、装配、分拣等复杂工作已成为工业界发展趋势。然而,对于室内场景中常见的低纹理工业零件,由于图像可用信息有限,还不能很好地实现快速、精确的位姿估计。本文针对低纹理工业零件位姿估计精度不足的问题,提出一种基于伪孪生神经网络进行6D位姿估计的方法。 首先,通过物理仿真引擎渲染CAD模型的方式,获取包含不同观察角度和距离下的工业零件RGB图片、掩码图以及位姿标注,将其作为网络的训练样本,解决深度学习中数据集获取与标注较为繁琐的问题。利用Aruco标定技术设计一套真实场景下数据集采集和标注方法,制作数据集进一步提升训练样本的多样性。 其次,利用PyTorch深度学习框架搭建伪孪生神经网络来学习二维图像特征和物体的三维点云模型特征之间的相似性,即采用全卷积网络和三维点云语义分割网络分别提取二维图像和三维模型的高维深层特征,使用网络推断密集的二维-三维对应关系,通过PnP-RANSAC方法恢复物体的位姿。经训练以及测试数据集的实验结果表明,本文所提出的位姿估计方法在具有较高准确性的同时也兼具较强的环境鲁棒性。 再次,为了验证本文提出的位姿估计方法在实际应用场景下所展现出的性能,本文利用六轴机械臂、二指电夹爪等硬件设备搭建机器人抓取实验平台,同时结合前文位姿估计算法,基于ROS框架,设计开发一套机器人抓取软件系统,其中主要是将本文网络的各个子功能模块写入多个独立的节点,通过ROS的通信机制传输信息来控制机器人完成相应操作任务。 最后,本文基于Qt软件设计一套人机交互可视化管理系统,为用户提供方便快捷的机器人操作服务。经数次机器人抓取实验证明,本文提出的6D位姿估计算法和机器人工业零件抓取系统具有良好的工作性能,能够稳定且高效地完成随机散乱分布场景下的低纹理工业零件精确识别、抓取、放置等操作任务。