首页|面向遥感图像目标检测的深度学习融合算法研究

面向遥感图像目标检测的深度学习融合算法研究

李鑫

面向遥感图像目标检测的深度学习融合算法研究

李鑫1
扫码查看

作者信息

  • 1. 武汉理工大学
  • 折叠

摘要

遥感图像是一种与自然场景区别很大的目标检测环境,其适用模型除了输出目标类别和包围框信息外,还需要增加角度或其他包围框修正信息。传统目标检测模型迁移到遥感图像目标检测任务的过程中需要根据遥感目标具体特点进行调整和改进。本文基于遥感目标特点,从提升检测速度和精度两方面探索当前先进深度学习算法在遥感检测任务上的适用、融合和改进,具体研究如下: (1)DOTAv1.0数据集的处理和增强。首先对原始四坐标点标签进行了四维参数转换和五维参数转换,分别用于水平锚框聚类和模型训练。然后基于遥感图像和遥感目标特点,分析并验证了HSV增强、随机翻转增强、Mosaic增强三种数据增强方法在遥感目标检测任务上的有效性。 (2)在YOLOv5(v5.0)上融合CSL角度输出方法,提出Oriented-YOLOv5。在YOLOv5的基础上,融合了先进的CSL角度输出方式,在网络头部、IoU计算方法和损失函数上做出修改,并引进旋转矩形框NMS方法,更符合遥感目标密集场景中的目标检测需求。总体上通过增加少数参数和计算量,使用CUDA加速的旋转框IoU和NMS方法,在大尺寸遥感图像(1024×1024像素)检测任务上实现了实时检测速度和较高准确度。最快的Oriented-YOLOv5s检测速度为85FPS,mAP为68.24%。 (3)基于Oriented-YOLOv5s继续探索可以提高速度和准确度的神经网络融合方法。用卷积层替代Focus层,可以提高推理速度和总体准确度。设计空间金字塔空洞卷积替代空间金字塔池化,可以增强模型的表征能力。引入随机多尺度训练,提高模型的鲁棒性。引入SiLU激活函数,提高模型检测速度和精度。实验过程中也发现低层特征融合等若干常用特征增强方法未能提升模型表现,并通过实验数据对其做了具体分析。 (4)提出了SWIN-OrientedR-CNN。研究一种新的结构,使用SWIN骨干网络替代OrientedR-CNN中的ResNet骨干网络,提高了OrientedR-CNN的准确率。在此基础上,进一步探索多种金字塔融合结构在Transformer骨干上的提升效果,提高模型的有效表征能力,mAP提升到74.1%。SWIN-OrientedR-CNN模型在大型细粒度遥感数据集FAIR1M上同样表现出色,mAP达到41.13%。 Oriented-YOLOv5实现了轻量型实时检测器在遥感目标检测任务上的应用和提升,降低了遥感检测器对硬件的要求。SWIN-OrientedR-CNN实现了高精度遥感目标检测器的进一步提升,并为Transformer骨干网络在遥感图像目标检测算法中的应用提供了基准线。本文研究成果不仅扩展了最新的深度学习算法的融合能力,而且有助于增强遥感图像检测算法的实际应用能力。

关键词

遥感检测/YOLOv5软件/任意角度目标检测/单阶段检测器/Transformer检测器

引用本文复制引用

授予学位

硕士

学科专业

控制科学与工程

导师

蔡振华

学位年度

2022

学位授予单位

武汉理工大学

语种

中文

中图分类号

TP
段落导航相关论文