首页|基于全局与局部多尺度特征融合的伪装目标检测网络的研究

基于全局与局部多尺度特征融合的伪装目标检测网络的研究

童旭巍

基于全局与局部多尺度特征融合的伪装目标检测网络的研究

童旭巍1
扫码查看

作者信息

  • 1. 重庆理工大学
  • 折叠

摘要

伪装目标检测(COD)是近年来计算机视觉中新兴且备受关注的领域,它是计算机视觉分割任务的一个重要分支。其主要目标是识别视觉场景中的伪装目标并将其从背景中区分出来,从中提取有用的伪装目标信息。这一领域具有广泛的应用前景,并且受到了许多研究者的密切关注。 随着时间的推移,已经提出了许多不同的伪装目标检测方法。早期的方法存在一些问题,例如检测效果不佳和工作量较大等。然而,近年来随着深度学习的快速发展,基于深度学习的方法取得了显著的进步,大大提升了分割效果。这些方法利用深度学习模型对图像进行学习和特征提取,从而更好地识别伪装目标并进行准确的分割。尽管基于深度学习的方法在伪装目标检测方面取得了显著进展,但在面对一些具有挑战性的场景时,仍然存在性能下降的情况。这可能是由于训练数据的不足、目标的复杂伪装或者场景的复杂性等原因造成的。因此,对于伪装目标检测方法的进一步研究和改进仍然是一个重要的课题,以应对更加复杂和挑战性的应用场景,发挥其巨大的潜力。针对现存在的模型特征提取不充分,边缘分割模糊等导致检测性能下降的问题,本文开展的主要工作如下: (1)在深度神经网络中,过深的高层特征提取网络可能会导致一些高级语义信息丢失,这种情况下,当高层语义信息传递给浅层网络时,浅层网络可能无法充分获取到完整的高级语义信息,导致无法精确定位伪装目标位置信息。为此,本文提出了基于全局多尺度特征融合的伪装目标检测网络(GMF2Net)。首先,本文设计了全局增强融合模块(GEFM)能够提取到不同尺度下的全局上下文信息。随后,通过设置多个融合增强分支,实现了从高级语义到浅层网络的信息流动,有效避免了在特征融合阶段的信息损失。高层网络中实现的定位和捕获机制专注于精确抓取伪装目标的位置信息。对于在浅层网络中的高分辨图像也进行了特征提取,以增强高分辨率特征的细节信息。通过在三个基准数据集上进行实验验证,证明了本文所提出的网络在性能上表现出了较为优异的结果。 (2)对于伪装目标而言,其与背景之间高度相似的特点导致在特征提取过程中图像噪声增多,边缘信息提取变得困难,从而导致了预测结果的边缘模糊不清。为此,本文提出了一种多层级边缘增强融合的伪装目标检测网络(ME2FNet)。具体来说,首先我们设计了残差纹理增强模块(RTEM),用来从充满噪声的骨干特征中获得更加细化的特征。然后,我们设计了一个边缘提取模块(EEM),旨在从低层次特征与高层次特征中,通过一个简单的局部通道注意力机制来提取有效的边缘语义信息。最后我们设计了一个边界引导融合模块(BGFM),旨在将之前得到的先验信息进行融合,它能将EEM提取到的边缘信息与从骨干网络不同层次的特征进行融合,并在真实标签监督下指导学习,同时它将高层的全局信息与不同层次的特征进行融合,使最终预测出的边缘更加清晰,并优化整体结构。在三个具有挑战性的基准数据集上进行了大量实验,在四个广泛使用的评估指标下,本文的模型优于近年来多个前沿模型,在伪装目标检测任务上取得了先进的效果。 综上所述,本文通过上述研究,以目前伪装目标检测领域存在的问题为导向,从全局特征与局部特征的提取方式与融合方式入手,提出了两种伪装目标检测网络模型,并通过实验证明了其优秀的性能。这将有助于伪装目标检测在计算机视觉任务中的进一步发展。

关键词

伪装目标检测/多尺度特征融合/多层级边缘增强/残差纹理

引用本文复制引用

授予学位

硕士

学科专业

计算机应用技术

导师

张光建

学位年度

2024

学位授予单位

重庆理工大学

语种

中文

中图分类号

TP
段落导航相关论文