摘要
同时定位与建图(SimultaneousLocalizationAndMapping,SLAM)技术是移动机器人领域的前沿技术。在弱纹理的结构化场景下,如何使定位结果更加精确,并生成满足物体识别、避障以及路径规划的三维地图逐渐成为领域内近几年的研究热点。目前,SLAM系统主要存在两个问题,一是光照条件变化、快速运动等因素引起的特征丢失,二是在人造结构化场景下,纹理缺失导致系统无法有效提取特征点。上述问题均导致前端里程计失效,无法实现精确定位。为提高SLAM算法在结构化场景下的鲁棒性与定位精度,本文利用RGB.D深度相机作为主动探测传感器,结合惯性测量单元(InertialMeasurementUnit,IMU),设计并实现基于点线特征的多传感器信息融合定位与稠密建图算法,主要研究工作包括: 1.视觉前端部分,通过添加特征点区域判断和IMU辅助特征跟踪,提高特征点的匹配速度。此外,在前端视觉里程计部分,引入线特征提取、匹配与优化算法。为简化计算过程并保持参数紧凑,采用Plücker坐标与正交参数表示法对线特征进行描述,通过构建线特征重投影误差对系统形成新的约束并参与到后端优化环节。实验表明,点线特征融合能够有效提高算法鲁棒性及定位精度。 2.后端优化部分,针对RGB-D相机与IMU的信息融合问题,本文对点特征重投影误差、线特征重投影误差、IMU预积分误差、边缘化策略带来的先验信息及回环误差五部分进行建模与推导,构建系统总体残差函数,通过滑动窗口策略完成非线性优化。 3.闭环检测部分,系统在关键帧判断机制中引入帧间旋转和平移度量公式,改进关键帧选择策略,保证系统精度的同时,防止关键帧数量过多影响系统实时性。 4.建图部分,将后端优化后的位姿用于稠密点云地图的实时构建,在构建地图过程中添加噪点去除与地面去除功能,控制点云规模的同时减少地图冗余信息,使地图能够精确反映三维场景结构,以满足移动机器人后续避障及路径规划等应用需求。 本文通过公开数据集实验与现实场景实验对算法进行性能验证。首先,在EUROC、OpenLORIS等数据集上进行系统测试及误差分析,与本领域内其他主流多传感器信息融合算法的对比结果表明,基于点线特征设计的RGB-D视觉.惯导融合算法能够有效提升定位精度及算法鲁棒性,并实时生成更精确的三维点云地图;最后,在实际应用环境下对系统进行测试,结果表明,本文设计的多传感器融合SLAM算法能够满足结构化场景下移动机器人的实时定位精度要求与建图需求。