摘要
随着计算机视觉和深度学习的快速发展,单目视觉SLAM(Simultaneous Localization and Mapping)作为一种重要的技术手段,利用单目视觉传感器提供的数据,让移动机器人能够在没有先验信息的未知环境中实现同时定位与地图构建。这种技术不仅提高了机器人的自主导航能力,还为机器人提供了更准确、更高效的环境感知和决策能力,进一步拓展了机器人的应用范围。但是它在动态环境中的精确性和鲁棒性较差,且具有尺度不确定性。因此,将单目视觉信息与深度学习相结合来实现定位的精确性和鲁棒性是近年来的研究热点。在此基础上,本文基于深度学习对单目视觉SLAM算法展开了深入的研究。本文研究的主要内容与工作如下: 单目视觉SLAM中采用单目传感器具有成本低、易于安装和适应性强等好处。然而,由于单目传感器无法获取单张图像的深度信息,导致估计的轨迹和地图与实际尺度存在不一致性,存在尺度不确定性问题。这些问题可能导致实际构建的地图无法进行有效的导航和避障。为了解决单目相机无法获取图像深度的问题,提出了利用编码-解码的网络架构与ORB_SLAM3前端视觉里程计相结合,构建具有尺度感知的单目视觉SLAM系统。同时,针对目前对于SLAM算法研究大多是假定存在于静态环境下运行,而在实际动态环境下不能鲁棒运行甚至出现定位失效的情形,提出了动态环境视觉SLAM系统改进方案,运用YOLOv5对动态物体目标进行目标检测并结合对极几何约束,有效剔除动态特征点对相机位姿估计的影响。地图是SLAM中实现自主定位和移动的重要工具,在ORB_SLAM3中构建的稀疏路标地图基础上,利用深度学习网络估计的图像深度和剔除动态特征点的点云信息构建了稠密地图,实现了导航、避障功能。 实验结果表明,本文改进后的采用单目传感器的ORB_SLAM3算法能够准确估计图像的深度,在动态场景下定位精度提升75.53%,鲁棒性提升73.81%,构建的稠密地图能够提供丰富的场景信息,实现导航和避障等需求。