计算机研究与发展2021,Vol.58Issue(2) :436-443.DOI:10.7544/issn1000-1239.2021.20200244

基于语义分割的红外和可见光图像融合

Infrared and Visible Image Fusion Based on Semantic Segmentation

周华兵 侯积磊 吴伟 张彦铎 吴云韬 马佳义
计算机研究与发展2021,Vol.58Issue(2) :436-443.DOI:10.7544/issn1000-1239.2021.20200244

基于语义分割的红外和可见光图像融合

Infrared and Visible Image Fusion Based on Semantic Segmentation

周华兵 1侯积磊 1吴伟 1张彦铎 1吴云韬 1马佳义2
扫码查看

作者信息

  • 1. 武汉工程大学计算机科学与工程学院 武汉430205;智能机器人湖北省重点实验室(武汉工程大学) 武汉430205
  • 2. 武汉大学电子信息学院 武汉430072
  • 折叠

摘要

红外图像即使在低光照条件下,也能根据热辐射的差异将目标与背景区分开来,而可见光图像具有高空间分辨率的纹理细节,此外,红外和可见光图像都含有相应的语义信息.因此,红外与可见光图像融合,需要既保留红外图像的辐射信息,也保留可见光图像的纹理细节,同时,也要反映出二者的语义信息.而语义分割可以将图像转换为带有语义的掩膜,提取源图像的语义信息.提出了一种基于语义分割的红外和可见光图像融合方法,能够克服现有融合方法不能针对性地提取不同区域特有信息的缺点使用生成式对抗神经网络,并针对源图像的不同区域设计了2种不同的损失函数,以提高融合图像的质量.首先通过语义分割得到含有红外图像目标区域语义信息的掩模,并利用掩模将红外和可见光图像分割为红外图像目标区域、红外图像背景区域、可见光图像目标区域和可见光图像背景区域;然后对目标区域和背景区域分别采用不同的损失函数得到目标区域和背景区域的融合图像;最后将2幅融合图像结合起来得到最终融合图像.实验表明,融合结果目标区域对比度更高,背景区域纹理细节更丰富,提出的方法取得了较好的融合效果.

关键词

红外图像/可见光图像/图像融合/语义分割/掩膜

引用本文复制引用

基金项目

国家自然科学基金(61771353)

国家自然科学基金(61773295)

国家自然科学基金(62072350)

国家自然科学基金(41501505)

湖北省技术创新工程项目(2019AAA045)

出版年

2021
计算机研究与发展
中国科学院计算技术研究所 中国计算机学会

计算机研究与发展

CSTPCDCSCD北大核心
影响因子:2.649
ISSN:1000-1239
被引量11
参考文献量3
段落导航相关论文