摘要
无人驾驶是未来智能交通领域的重要发展方向,环境感知是保证无人驾驶车辆行车安全和性能的基本和关键因素,是无人驾驶技术的主要研究方向之一。目前大多数感知算法没有充分利用环境感知任务之间的关联性,而是对道路目标检测、可行驶区域分割等任务采用独立模型,从而浪费了无人驾驶汽车中有限的硬件资源。为此,本文基于深度学习、计算机视觉理论以及道路环境特点,对无人驾驶多任务环境感知算法展开深入研究,构建了改进的YOLOP网络模型并完成了丰富的实验验证工作。 在网络模型构建方面,完成了对YOLOP的改进。首先,为了提高模型的拟合度,将YOLOP主干网络CSPDarknet中的CSP层结构进行改进,通过使用CBS替代CSP层中的基础卷积层,并且在处于不同深度的CSP层中加入不同数量的残差结构;其次,为了解决网络在多处理一项感知任务时网络的参数量和计算量增加的问题,对基于RefineNet的深度估计网络进行轻量化处理,在链式剩余池化模块和融合模块中使用1×1卷积层代替原有的3×3卷积层,并考虑到剩余卷积模块对整个输入输出没有太大影响,将剩余卷积模块移除以控制整个网络的参数量和计算量;最后,将替换完卷积层和去掉剩余卷积模块的轻量级RefineNet搭载到YOLOP网络,并使其成为本文所构建网络的解码器之一,从而使得网络可以同时处理车辆目标检测、车辆的深度估计、可行驶区域和车道线的分割四项环境感知任务。 在实验验证方面,设计了多种训练模式,并BDD100k数据集和Cityscapes数据集上对本文构建的网络和现有一些网络进行性能对比。首先,完成了三组单任务对比实验,实验结果表明,目标检测网络平均精度比YOLOv4高出2.6%;语义分割网络比Segnet网络模型平均交并比高出了1.63%;深度估计网络在轻量化处理后网络的参数量和计算量都有所改善的前提下,模型效果也得到了提升;其次,完成了四组多任务对比实验,实验结果表明,目标检测在平均精度上相比YOLOP提高了0.8%,可行驶区域分割平均交并比相比YOLOP提高了0.7%,车道线检测相比YOLOP的平均交并比提高了0.7%,深度估计相比Monodepth2绝对相对误差降低了0.006,整个网络模型对单张图片推理时间为3.2ms;最后,按照任务联合交替训练模式,设计了两组消融对比实验,分别为网络端到端模式消融实验和单任务与多任务消融实验,实验结果均表明本文构建的网络模型对多任务环境感知的有效性。