首页|基于视觉与惯性传感器融合的低速无人车定位方法研究

基于视觉与惯性传感器融合的低速无人车定位方法研究

汪伟

基于视觉与惯性传感器融合的低速无人车定位方法研究

汪伟1
扫码查看

作者信息

  • 1. 浙江工业大学
  • 折叠

摘要

近年来,人工智能推动了自动驾驶技术的快速发展。获得实时、准确的车辆位姿信息是实现自动驾驶的关键技术之一,具有非常重要的研究价值。在缺失全球导航卫星系统(Global Navigation Satellite System,GNSS)信号环境下,视觉惯性组合定位系统(Visual Inertial Odometry,VIO)通过融合低成本、微型化的相机和惯性测量单元(Inertial Measurement Unit,IMU)数据来实现载体的位姿估计,充分利用了两者之间具有较强的互补特性,获得了比使用单个传感器更好的累积性能,从而受到了自动驾驶领域的广泛关注。 然而,将VIO系统直接应用于自动驾驶领域仍面临着一些严峻挑战。一方面,无人车车载计算单元对算法的复杂度、精度及鲁棒性等均有着较高的要求;另一方面,光照变化、纹理缺失、结构退化及室外大场景等复杂环境也会导致算法性能显著下降。针对上述问题,本文将研究如何通过融合视觉与惯性传感器数据来提高低速无人车的定位精度及鲁棒性,且满足车辆的实际定位需求。本文的主要工作如下: (1)针对存在静态场景的低速无人车定位问题,结合多状态约束卡尔曼滤波(Multi-State Constraint Kalman Filter,MSCKF)框架,设计并引入自适应零速修正机制(Adaptive Zero Velocity Update,AZUPT),提出了一种基于自适应零速修正机制的低速无人车定位方法。利用IMU测量传播车辆运动信息,利用单目相机观测实现对运动状态下的车辆运动信息校正,并通过新增的自适应零速修正机制实现对静止状态下的车辆运动信息校正,使得无人车定位方法能较好地适应静态场景,从而提高了无人车在静态场景下的定位性能。 (2)针对光照变化、纹理缺失、结构退化及室外大场景等挑战,将MSCKF框架中的单目相机改为立体相机,提出了一种基于立体相机与IMU融合的低速无人车定位方法。考虑到立体相机与IMU间的外参离线标定存在一定的误差,在线标定立体相机与IMU间的联合外参。同时,引入可观测性约束扩展卡尔曼滤波(Observability Constrained Extended Kalman Filter,OC-EKF)算法来提高传统MSCKF算法的一致性,并利用立体相机观测实现对车辆运动信息的校正,从而提高了车辆的定位精度及鲁棒性。 (3)设计并实现了一套基于多传感器融合的低速无人车平台,验证了所提定位方法的有效性和优越性。首先搭建了基于多传感器融合的低速无人车硬件平台;其次构建了基于Linux和ROS操作系统结合的低速无人车软件平台;最后在校园环境内对所设计的低速无人车平台进行了实验测试。 综上,本文完成的创新性研究有助于提高低速无人车的定位精度及鲁棒性,对其在真实环境中的实际应用具有一定的积极意义和参考价值。

关键词

无人车/定位算法/自适应零速修正机制/立体相机/惯性测量单元/多传感器融合

引用本文复制引用

授予学位

硕士

学科专业

控制科学与工程

导师

张文安/付明磊

学位年度

2022

学位授予单位

浙江工业大学

语种

中文

中图分类号

TP
段落导航相关论文