首页|基于多传感器融合和地面约束的轮式机器人定位方法研究

基于多传感器融合和地面约束的轮式机器人定位方法研究

许文杰

基于多传感器融合和地面约束的轮式机器人定位方法研究

许文杰1
扫码查看

作者信息

  • 1. 华南理工大学
  • 折叠

摘要

多传感器融合定位技术,是支撑移动机器人在室内外复杂场景中正确估计自身状态并完成自主导航避障的关键。如何选用合适的传感器组合,以较低的成本实现移动机器人运行场景中高精度和鲁棒的定位,是目前移动机器人定位领域的研究热点。基于以上背景,本文选用了小视角固态激光雷达、深度相机和IMU(InertialMeasurementUnit,惯性测量单元)的传感器组合,开展了使用轮式机器人运行场景中地面约束的多传感器融合定位方法研究。主要工作内容如下: (1)在准备工作中介绍了所使用的传感器的理论模型,进行了传感器的内外参标定。针对固态激光雷达静置获取稠密点云的特性,提出了使用棋盘格板标定固态激光雷达与相机间外参的方法,并通过投影误差和上色实验证明了外参标定结果具有较高精度。 (2)轮式机器人在局部平坦的场景中运行,而现有SLAM(SimultaneousLocaliz-ationandMapping,同时定位与建图)方法未有效利用地面的约束条件,依然存在重力方向的位姿漂移。针对这一问题,提出了一种利用地面约束的RGB-DSLAM方法。通过提取深度图像中的地面、建立帧间的平面关联,以及分割出在地面上的特征点,在位姿优化的目标函数中添加了面特征匹配残差和地面上特征点到地面距离的残差。公开数据集上的实验结果验证了该方法在抑制重力方向的累积漂移上的有效性。 (3)针对现有的小视角固态激光雷达与IMU融合方案在室内狭窄场景中容易因雷达观测退化导致位姿约束不足的问题,通过结合(2)中的视觉定位方法,提出了一种固态激光雷达-视觉-惯性融合的SLAM方法。通过使用迭代的误差状态卡尔曼滤波,融合基于IMU数据的运动预测、雷达点云的匹配误差和视觉特征的重投影误差构成的观测,并加入了对当前雷达数据是否退化的判断。公开数据集和真实场景的对比实验结果表明所述融合定位方法在室内外场景均能保持高精度的位姿估计,并有更好的鲁棒性。 (4)为了结合上述融合定位方法实现轮式机器人的导航功能,针对点云地图无法直接读取障碍信息、二维栅格地图不便于进行复杂场景定位的问题,提出了一种将点云地图处理为栅格地图并在点云地图中重定位、栅格地图中进行路径规划的方法,并结合固态激光雷达的小视角特性进行了重定位算法的改进。最后通过真实场景中的实验证明了所述导航系统的有效性。

关键词

轮式机器人/位姿估计/多传感器融合/同时定位与建图

引用本文复制引用

授予学位

硕士

学科专业

机械工程

导师

邱志成/董超

学位年度

2023

学位授予单位

华南理工大学

语种

中文

中图分类号

TP
段落导航相关论文