摘要
近年来,随着人工智能概念的兴起以及计算机视觉算法上的成熟,增强现实技术和自动驾驶技术得到了越来越多的关注,这些技术中有一个共同的模块便是同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)。早期的SLAM系统稳定度不高,实时运行时通常只能保证在小范围中短时间跟踪和定位,随着硬件性能的提升、软件算法的改进和多传感器融合,目前SLAM技术已得到了长足的发展,不仅在室内场景上已经达到了极高的精度,在室外的自动驾驶场景上也取得了不错的效果,其中KITTI数据集就是一个针对室外自动驾驶场景的多传感器融合数据集。 单个传感器搭建的SLAM系统会存在很多问题,比如单目视觉缺少对场景尺度的估计,在长时间跟踪后会不可避免地出现尺度漂移,一般只能通过回环检测来修正。激光SLAM相比视觉SLAM精度较高,但在运动过程中容易出现点云畸变现象,需要首先根据运动信息对畸变进行修正,且激光点云配准在遇到结构信息较少的退化场景时容易出现很大偏差,此外,激光SLAM的回环检测的准确率和召回率难以保证。 基于以上分析,本学位论文提出了基于视觉和激光信息融合的SLAM系统,通过相机与激光的联合标定完成两个传感器坐标系间信息的融合,使得两个传感器的优势互补:去畸变后的激光信息可以给图像提供准确的深度信息,从而解决了单目视觉尺度不确定的问题,同时视觉估算出的运动信息可以提供一个良好的位姿初值,辅助激光点云进行配准,避免进入退化环境后运动估计错误。此外,在长时间运动后,视觉方法还可以提供一套完整鲁棒的回环检测方案,减少整个轨迹的累积误差。 本文在KITTI数据集中进行了充分的实验。实验表明,在激光里程计中加入视觉信息后,里程计的定位精度在相对精度和绝对精度上相比LOAM都有了显著的提升,且鲁棒的回环检测方法可以使得长距离轨迹的绝对误差进一步减小。实验结果充分验证了本文提出的基于激光视觉融合的SLAM方法的可行性和有效性。