首页|面向无人机航拍交通场景的旋转目标检测与跟踪方法研究

面向无人机航拍交通场景的旋转目标检测与跟踪方法研究

苗朝阳

面向无人机航拍交通场景的旋转目标检测与跟踪方法研究

苗朝阳1
扫码查看

作者信息

  • 1. 山东大学
  • 折叠

摘要

随着无人机和人工智能技术的快速发展,基于无人机的感知理解技术在智能交通领域得到广泛关注和应用。与固定监控相机相比,无人机可提供高机动灵活的俯视视角,但同时也面临目标多朝向、多尺度及复杂背景等挑战。现有研究存在一些问题:旋转目标检测对小目标不敏感、角度预测精度有待提高;多目标跟踪对运动状态估计不准、长时间遮挡导致身份标识(ID)跳变等。本文针对以上问题展开研究,主要研究内容如下: (1)针对旋转目标检测与跟踪数据集稀缺的问题,构建了面向无人机航拍交通场景的旋转目标检测数据集UT-ROD和多目标跟踪数据集UT-MOT。数据集包含了行人、骑行人和车辆等多种交通参与者,覆盖了复杂多样化的城市交通场景,并考虑不同的光照条件和多样的拍摄动作,所有目标均采用旋转边界框进行标注,弥补了现有数据集的不足,为旋转目标检测与跟踪方法的研究提供了数据基础。 (2)针对现有旋转目标检测算法在小目标检测及角度预测精度上的不足,提出了一种基于位置增强和轴向压缩的旋转目标检测网络(Rotated Object Detection Network based on Position-Enhanced and Axis Squeezed,PEAS-Net)。首先,设计了特征金字塔位置增强模块,通过结合位置编码来强化高层特征图的空间位置信息,采用特征融合来平衡高低层次的特征表达,以增强小目标特征的表达能力并抑制背景噪声。然后,设计了多尺度特征自适应拼接模块,通过构建特征细化分支和特征平衡分支,使网络自主融合来自特征金字塔的多尺度特征,以提高多尺度目标的检测精度。最后,设计了基于三轴压缩增强注意力的头部网络,结合边长回归分支和轴线预测分支来预测旋转检测框,并在轴线预测分支中设计三轴压缩增强注意力,通过融合水平轴、垂直轴和通道轴的注意力来捕获每个位置的全局依赖关系,从而提高角度预测的精度。 (3)针对现有多目标跟踪算法在密集场景中运动状态估计不准、长时间遮挡导致ID跳变的问题,提出了一种基于旋转注意力和三元二次级联匹配的多目标跟踪网络(Multi-Object Tracking Network based on Rotational Attention and Three-Parameter & Two-Stage Cascade Matching,RATM-Track)。首先,设计了五参数运动状态估计模块,以预测目标在动态环境中的位置和方向变化,减少检测框的冗余和重叠。其次,搭建了基于旋转注意力的重识别网络,利用姿态校准减小目标转弯引起的姿态差异,并设计旋转注意力模块用于提取目标的旋转不变特征,有效提高了重识别性能。最后,设计了三元二次级联匹配模块,该模块根据欧氏距离将检测框分为邻近检测框和疏远检测框,然后融合运动特征和表观特征计算相似度,进行先后两次级联匹配,提高了长时跟踪性能。 (4)在旋转目标检测与跟踪方法研究的基础上,基于PyQT5搭建了面向无人机航拍交通场景的交通流参数估计系统。设计交通流量计数方法完成对各个路口的流量统计,通过交通参与者移动的像素距离来计算其实际位移,进而实现速度估计及超速检测并基于X server实现本地可视化界面展示。 本文在自建数据集UT-ROD、UT-MOT、UT-ReID和公开数据集HRSC2016上对提出的方法进行了实验验证,从检测指标和跟踪指标上与其它方法进行了对比,验证了方法有效性。

关键词

无人机航拍/旋转目标检测/多目标跟踪/轴向注意力

引用本文复制引用

授予学位

硕士

学科专业

电子信息

导师

刘春生;李爽

学位年度

2024

学位授予单位

山东大学

语种

中文

中图分类号

TP
段落导航相关论文