首页|图像去模糊的轻量级深度学习方法

图像去模糊的轻量级深度学习方法

张云涛

图像去模糊的轻量级深度学习方法

张云涛1
扫码查看

作者信息

  • 1. 桂林电子科技大学
  • 折叠

摘要

图像去模糊的目的是去除模糊伪影以恢复清晰的图像。模糊的图像不仅会降低视觉效果,还会影响很多图像算法的性能。近年来基于深度学习的轻量级图像去模糊方法在去模糊性能和速度上都取得了较大的进展,但是它们也普遍存在两个问题:缺乏输入自适应性和全局上下文建模能力较差。输入自适应性是指模型可以针对不同的输入模糊图像在推理时动态调整部分参数,以灵活地适应输入内容。全局上下文建模能力是指模型在编码或解码过程中建模图像的全局上下文信息的能力。为了提升全局上下文建模能力,一些方法使用空间上的全局平均池化聚合全局上下文信息,但是这种方式忽略了空间位置信息,而空间位置信息对于图像去模糊这种位置敏感的任务非常重要。为了解决上述问题,本文在现有研究的基础上,提出了两种轻量级图像去模糊方法。 (1)本文提出了一种基于动态卷积神经网络的轻量级自适应图像去模糊方法。通过使用动态卷积层构建浅层自适应特征提取模块,增强模型对输入模糊图像的自适应性,解决了现有去模糊方法缺乏输入自适应性的问题。设计了一种简单位置注意力(SSA)通过使用空间上两个垂直的一维平均池化在聚合全局上下文信息的同时保留了部分空间位置信息。将SSA加入模型的构建中以此来缓解现有去模糊方法的全局上下文建模能力较差的问题。同时,提出了多尺度注意力融合模块(MAF)可以通过全局上下文信息指导多尺度特征图的自适应融合。 (2)本文提出了一种基于改进Transformer的轻量级图像去模糊方法。提出了一种改进的Transformer模块,简单Transformer(S-Transformer),S-Transformer模块由频域注意力网络(FDAN)和深度卷积门控网络(DCGN)组成,FDAN可以在捕获全局上下文信息的同时保留完整的空间位置信息,且仅具有接近线性的计算复杂度。使用S-Transformer模块搭建模型的解码模块,以此来解决现有去模糊方法的全局上下文建模能力较差的问题。同时,提出了动态卷积残差模块(DCRM)用以在编码阶段自适应地提取精细的浅层特征,增加模型的输入自适应性以帮助解码模块更好地恢复高质量的去模糊图像。

关键词

图像去模糊/动态卷积神经网络/注意力机制/全局上下文信息/Transformer模块

引用本文复制引用

授予学位

硕士

学科专业

计算机技术

导师

李玉鑑

学位年度

2023

学位授予单位

桂林电子科技大学

语种

中文

中图分类号

TP
段落导航相关论文