摘要
多无人机协同可以提高执行任务的效率和鲁棒性,在搜索救援、农业、军事等领域具有广泛的应用潜力。同步定位与建图(SimultaneousLocalizationandMapping,SLAM)是实现无人机自主导航、自主执行任务等智能化行为的关键技术之一,多无人机协同SLAM比单无人机SLAM在数据的共享、利用上更具挑战性。针对这一问题,本文提出了一种融合视觉/惯性/测距的集中式协同SLAM系统(CentralizedCollaborativeVisual-Inertial-RangeSLAM,C2VIR-SLAM)解决方案,可显著提高无人机自主导航精度。本文的主要研究内容和贡献如下: 首先,针对单无人机视觉/惯性里程计(VIO)中累积误差引起的定位漂移问题,绝大部分现有SLAM系统都是采用回环约束来修正累积误差以减少漂移。但回环约束要求无人机以接近相同的观测角度重新访问同一位置。此外,由光照、相似环境等引起的感知异常值也对回环约束形成了挑战。为此在环境中放置一个超宽带(Ultra-WideBand,UWB)静态锚点,提出了一种紧耦合视觉/惯性/测距优化器,在锚点可见时纠正累积误差。锚点仅需一个,且无需事先提前标定准确位置,可以在线估计锚点位置。实验证明即使在视觉特征不明显的环境,该方法仍然有效地修正累积误差。 其次,针对每架无人机能够确定自身的位置和环境地图,但难以获取与其它无人机的相对位置和难以使用其它无人机创建的地图的问题,提出了一个基于视觉/惯性/测距的集中式协同SLAM框架(C2VIR-SLAM)。在此框架中,每个无人机端运行基于关键帧的单目视觉/惯性里程计,将关键帧压缩后发送到中央服务器端;在中央服务器端,同时通过图像匹配得到无人机内的回环约束和无人机间的共视约束,还可以通过与一个UWB公共锚测距和无人机间测距得到机间约束。充分利用每架无人机的信息进行位姿图优化和全局特征地图的更新;中央服务器将优化后的特征地图反馈给无人机进行前端的优化定位。 然后,因为无人机之间通过视觉、测距进行协同,不同参数会对协同定位和建图精度产生影响,所以从视觉协同角度,分析高度、距离参数对协同区域重叠率的影响;另外从测距协同角度,分析多无人机的空间分布参数对定位精度影响。 最后,基于ROS实现了该协同SLAM系统原型,并在公开数据集和无人机搭载实验上分别对本文系统进行测试和验证。实验结果表明本文提出的基于视觉/惯性/测距的集中式协同SLAM框架,能够通过共享无人机间的地图信息和测距约束,提高多无人机协同SLAM系统的定位精度和鲁棒性。