摘要
自从机器学习的理论算法逐渐发展且在工业界的应用取得可观的成就后,人工智能和深度学习领域的研究热度高居不下。得益于计算机视觉研究的发展和硬件设备的更新换代,兴起了自动驾驶研究的浪潮,目标检测就是其中的关键技术之一,主要服务于自动驾驶系统中的环境感知系统,将感知的周围环境信息传递给系统中心,从而做出相应的行为决策。由于自动驾驶所面临的真实交通环境极其复杂且安全影响因素多,对目标检测的精度和实时性要求都极高,是传统目标检测方法完全无法满足的,如何提高检测精度和效率是自动驾驶领域目标检测任务中的重点和难点。 综上,为进一步使得通用目标检测的框架模型适用于自动驾驶交通环境的检测以获得更优的检测性能,在既有目标检测相关研究的基础上,选取了极具代表性的两阶段经典模型Faster R-CNN和单阶段经典模型YOLOV4进行改进。对Faster R-CNN的改进主要体现在:(1)在特征提取网络中引入特征融合机制实现深层次网络与浅层次网络的信息交互;(2)在ROI映射中结合向外取整和向内取整映射的方式形成双重ROI池化求均值的方式代替了误差较大的ROI池化;(3)采用CIoU损失并引入了遮挡截断目标物的权重因子;(4)重新定义训练过程中正负样本和锚框的选取方式。对YOLO V4的改进主要体现在:(1)借鉴HRNet网络的思路改进了Neck网络结构并新增了一个尺度的检测端口;(2)同样把截断和遮挡目标物的权重因子关联到损失函数中;(3)改进锚框的聚类选取方式,为每个检测端口设置两种比例的锚框。 最后,通过KITTI数据集测试了各类模型在改进前后的性能,并分析了密集遮挡和小目标物体的检测情况。改进后的Faster R-CNN模型精度较改进前提高了4.18%,改进后的YOLO V4模型较改进前检测速度提升了2帧,精度提升了3.75%。改进后的模型性能均有着不同程度的性能提高,有着一定的科学参考价值和现实意义。