东莞理工学院学报2024,Vol.31Issue(3) :32-37.

基于多粒度跨模态特征增强的红外与可见光图像融合

Infrared and Visible Image Fusion Based on Multi-granularity Cross-modal Feature Enhancement

王敷轩 庞珊
东莞理工学院学报2024,Vol.31Issue(3) :32-37.

基于多粒度跨模态特征增强的红外与可见光图像融合

Infrared and Visible Image Fusion Based on Multi-granularity Cross-modal Feature Enhancement

王敷轩 1庞珊2
扫码查看

作者信息

  • 1. 福建警察学院 刑事科学技术系, 福建福州 350007
  • 2. 福建警察学院 刑事科学技术系, 福建福州 350007;中国人民公安大学 信息网络安全学院, 北京 100081
  • 折叠

摘要

针对红外与可见光图像融合中跨模态特征提取与整合不充分的问题,提出了一种基于Transformer和卷积神经网络(CNN)的图像融合算法.为充分提取深层全局上下文特征,设计了以Transformer为主体的深层特征提取模块,Transformer提取的多粒度全局上下文特征被馈送入跨模态特征增强模块(CFEB),CFEB以自上而下的方式充分整合双模态深度特征,整合后的融合特征与双模态特征在通道维度连接,用以重建融合图像.在MSRS公开数据集上的大量定性与定量实验结果表明,所提方法可以充分整合红外与可见光跨模态互补信息,获得显著的图像融合效果.

Abstract

This work proposes a Transformer and CNN based image fusion algorithm to address the issues of insufficient cross-modal feature integration in infrared and visible image fusion. To fully extract deep features of global context, a deep feature extraction module with Transformer blocks is designed. The multi-granularity global context features extracted by the Transformer blocks are fed into a cross-modal feature enhancement module ( CFEB) to fully integrate the dual-modality deep features in a top-down manner. The integrated fused features are connected with the dual-modality features in the channel dimension to reconstruct the fused image. A large number of qualitative and quantitative experimental results on public MSRS dataset show that the proposed method can fully integrate complementary information from infrared and visible images, achieving significant image fusion effects.

关键词

图像融合/红外图像/可见光图像/特征增强

Key words

image fusion/infrared image/visible image/feature enhancement

引用本文复制引用

基金项目

国家重点研发计划项目(2022YFC3331400)

福建省中青年教师教育科研项目(科技类)(JAT220236)

出版年

2024
东莞理工学院学报
东莞理工学院

东莞理工学院学报

影响因子:0.265
ISSN:1009-0312
段落导航相关论文