首页|基于深度学习的遥感图像语义分割

基于深度学习的遥感图像语义分割

李亚洲

基于深度学习的遥感图像语义分割

李亚洲1
扫码查看

作者信息

  • 1. 安徽大学
  • 折叠

摘要

随着遥感技术的快速发展,它已经广泛应用于生产和生活中,因此对于处理遥感图像的技术需求也越来越大。传统方法构建的遥感图像语义分割模型,需经过复杂的设计和参数调整,且在面对新的数据时泛化能力较弱。目前,大部分遥感图像分割使用了深度学习技术,尤其是在现代科技迅速发展的背景下,该技术应用前景广阔。深度学习技术具有自动学习的能力,可以通过大量数据自适应地调整模型参数,从而提高遥感图像语义分割的准确性和效率。随着深度学习技术不断发展,其在人工智能、机器视觉等领域也不断取得重大突破,为遥感图像处理带来了更多的可能性和挑战。本文的研究重点在于探讨以下两个方面的问题: (1)针对遥感图像中存在类别不均衡现象,常规的损失函数会产生总体精度高而小类别精度低的问题,本文提出一种LovaszLoss与FocalLoss结合的损失函数,可实现遥感图像不均衡类别语义分割。该损失函数分别计算LovaszLoss和FocalLoss,以二者的总和作为损失值进行梯度下降算法。它既可优化交并比(IntersectionoverUnion,IoU)评价指标,又能根据训练效果动态调整各类别权值提高小类别的精度,且损失函数的收敛相对平滑。选取林地分类应用场景和mIoU、平均准确率指标,比较DiceLoss损失函数、LovaszLoss损失函数、交叉熵损失函数、FocalLoss损失函数及LovaszLoss+FocalLoss训练DeepLabv3+网络的语义分割模型。结果表明,基于多类别LovaszLoss+FocalLoss损失函数的语义分割模型达到最优的效果,mIoU和平均准确率分别提高0.8%和0.33%,因此有利于提高mIoU,并改善类别不平衡问题。 (2)大多数深度学习遥感图像语义分割方法是基于卷积神经网络(CNN)的。近来,Transformer模型提供了一种处理图像长距离依赖性的新视角。本研究提出了RCCT-ASPPNet,它包括基于Transformer的多尺度残差通道式交叉融合(RCCT)和空洞空间金字塔池化(ASPP)的双编码器结构。RCCT使用Transformer交叉融合全局多尺度语义信息,然后使用残差结构连接输入和输出。基于CNN的ASPP从不同角度提取高层语义的上下文信息,并使用卷积注意模块(CBAM)提取空间和通道信息。实验结果表明,RCCT-ASPPNet在数据集Farmland和AeroScapes上的mIoU分别为94.14%和61.30%,mPA分别为97.12%和84.36%,均优于DeepLabv3+和UCTransNet。

关键词

遥感图像/语义分割/深度学习/损失函数/卷积神经网络

引用本文复制引用

授予学位

硕士

学科专业

电子信息

导师

程志友;汪传建

学位年度

2023

学位授予单位

安徽大学

语种

中文

中图分类号

TP
段落导航相关论文