摘要
由于智能机器人应用范围越来越广泛,同步定位与地图构建( Simultaneously Localization and Mapping, SLAM)技术对于移动机器人来说,能够获取丰富的环境信息,是机器人在室内或者室外的环境中实现自主定位、导航和避障的根本,但针对现有的大多数基于视觉的SLAM存在这些局限性:传统的视觉SLAM算法大多数是面向静态场景下,即环境中没有运动的人或物体。而在移动机器人实际工作时,基于特征点的视觉里程计中人和易移动的物品会给位姿估计过程带来噪声,增加轨迹估计误差直接影响视觉SLAM算法的精确度,从而导致机器人位姿估计准确度低甚至无法定位等结果。 针对上述局限性,本文详述了一种室内动态场景下基于深度学习的视觉里程计算法。本文主要研究内容如下: 1.针对运动目标的特征点对现有视觉SLAM系统带来定位精度低和稳定性差的问题,提出利用基于深度学习的方法训练CR-VO系统。分析先验动态目标对视觉里程计的影响,使用基于改进的目标检测网络对输入图像先筛选出先验动态目标以剔除动态特征点,消除在位姿估计过程中由运动对象导致的估算误差,减少动态特征点对位姿估计的干扰;其次,由于先验动态目标不一定是运动的,如果直接剔除目标信息,会造成特征信息严重缺失,导致算法无法正常运行,从而提出一种新的特征点筛选机制。将目标检测掩模结果结合光流法和图像增强算法,弥补特征点不足的缺点,再预测相机的运动以及估算姿态和位置,进一步实现精确度和稳定性高的CR-VO系统。并且仿真结果表明,基于CR-VO的ORB-SLAM2系统在TUM数据集上的定位精度相对ORB-SLAM2系统平均提升了43%。 2.针对硬件资源有限和CR-VO系统实时性问题,提出通过Ghost Module改进CR-VO提高位姿估计的实时性能,这将有助于在实际应用中的部署,提高模型泛化能力,进一步实现鲁棒性和实时性高的CR-LiteVO系统。同时仿真结果表明,基于CR-LiteVO的ORB-SLAM2系统在保证高精度定位的同时实时性能提升了25%。 3.搭建软硬件实验平台,以真实室内动态场景为背景,进行基于CR-LiteVO的ORB-SLAM2系统实验验证。把该系统移植到智能移动小车设备上,以采集真实场景深度图像,并进行轨迹可视化展示。