首页|基于多传感器融合的协同感知方法

基于多传感器融合的协同感知方法

扫码查看
该文提出了一种新的多模态协同感知框架,通过融合激光雷达和相机传感器的输入来增强自动驾驶感知系统的性能.首先,构建了一个多模态融合的基线系统,能有效地整合来自激光雷达和相机传感器的数据,为后续研究提供了可比较的基准.其次,在多车协同环境下,探索了多种流行的特征融合策略,包括通道级拼接、元素级求和,以及基于Transformer的融合方法,以此来融合来自不同类型传感器的特征并评估它们对模型性能的影响.最后,使用大规模公开仿真数据集OPV2V进行了一系列实验和评估.实验结果表明,基于注意力机制的多模态融合方法在协同感知任务中展现出更优越的性能和更强的鲁棒性,能够提供更精确的目标检测结果,从而增加了自动驾驶系统的安全性和可靠性.
Collaborative Perception Method Based on Multisensor Fusion
This paper proposes a novel multimodal collaborative perception framework to enhance the situational awareness of autonomous vehicles.First,a multimodal fusion baseline system is built that effectively integrates Light Detection and Ranging(LiDAR)point clouds and camera images.This system provides a comparable benchmark for subsequent research.Second,various well-known feature fusion strategies are investigated in the context of collaborative scenarios,including channel-wise concatenation,element-wise summation,and transformer-based methods.This study aims to seamlessly integrate intermediate representations from different sensor modalities,facilitating an exhaustive assessment of their effects on model performance.Extensive experiments were conducted on a large-scale open-source simulation dataset,i.e.,OPV2V.The results showed that attention-based multimodal fusion outperforms alternative solutions,delivering more precise target localization during complex traffic scenarios,thereby enhancing the safety and reliability of autonomous driving systems.

Autonomous drivingCollaborative perception3D object detectionMultimodal fusionIntelligent transportation systems

王秉路、靳杨、张磊、郑乐、周天飞

展开 >

西安建筑科技大学信息与控制工程学院 西安 710399

北京理工大学信息与电子学院 北京 100081

西北工业大学自动化学院 西安 710129

北京理工大学计算机学院 北京 100081

展开 >

自动驾驶 协同感知 3D目标检测 多模态融合 智能交通系统

中国博士后科学基金中国博士后科学基金

2022M7103932022TQ0035

2024

雷达学报
中国科学院电子学研究所 中国雷达行业协会

雷达学报

CSTPCD北大核心EI
影响因子:0.667
ISSN:2095-283X
年,卷(期):2024.13(1)
  • 30