摘要
实现对前方车辆的行为识别是智能汽车自动驾驶环境感知认知的重要任务,对自动驾驶决策规划和控制环节起着至关重要的作用。传统的车辆行为识别方法大多都是将目标的时空位置信息转换为鸟瞰视角下的历史轨迹信息进行行为识别,在将有关目标的感知数据进行坐标转换、多模态数据融合处理的过程中容易引入不容忽视的误差,造成数据质量的下降,不利于基于自车坐标下本车后续的决策规划控制。且现阶段自动驾驶领域所发布的数据集主要集中于记录目标的空位置信息,缺乏对行为和行驶姿态等多维度、强语义、长时效的认知信息的标注,这极大地限制了车载视角下的行为识别研究。针对于上述问题,本文的主要研究内容如下。 (1)为了解决当前车辆行为识别领域缺乏车辆行为数据集的问题,提出了一种车载视角下基于视频信息的车辆行为数据集标注方法,构建了车载视角下多目标、多标签的车辆行为识别数据集。本文构建的数据集行为类别包含左变道、右变道、左转弯、右转弯、横行穿越5类车辆日常行驶中最为常见行为。基于实车采集到的真实交通场景数据进行车辆行为片段提取,选取车辆行为片段中关键帧进行标注,标注内容包括车辆的位置、行为类别、车辆ID等信息,最终形成了一个完整而详细的数据集。 (2)针对传统的车辆行为识别方法大多基于鸟瞰(BEV)视角下的历史轨迹信息进行行为识别,本文设计了一种以SlowFast网络为主体的车辆行为识别算法,该算法利用了车辆运动过程中的视觉变化特征,结合不同时间尺度的视觉信息提高了模型对视频中快速运动目标的特征提取能力,能够实现同时对前方多台车辆的行为识别。在第一部分所搭建的车辆行为数据集上开展了实验的训练与测试,验证了所提出的车载视角下的基于视觉信息的前方车辆行为识别算法的可行性。 (3)为了提升算法的识别精度,对原双流SlowFast网络做了两点改进:一是为了解决数据集类别数量不均衡的问题,使用焦点损失函数替换原有的交叉熵损失函数,使模型在训练过程中对小数量的行为类别给予更大的关注和惩罚,从而提高模型对不同类别行为的识别平衡性;二是引入Non-local模块提高了模型对视频长距离时空依赖信息的提取能力,使模型能够捕捉视频中不同位置和时间的相关特征,增强模型对视频动态变化的理解和判断能力。在本文构建的车辆行为数据集上开展实验,结果表明:同时运用这两点改进的行为识别模型相较于第二部分提出的SlowFast模型,车辆行为识别的总体准确率提高了20.56%。