摘要
相比于传统基于插值、重构及硬件设备等方法进行CT图像超分辨率重建,基于深度学习的方法能够获取纹理连续性好,感兴趣区域特征突出的重建图像,且算法的成本更低。因此本文以深度学习的图像超分辨率重建算法为基础,主要针对注意力机制,残差特征提取及图像的上、下采样技术进行分析和研究。具体内容如下: (1)提出了基于UNet特征融合的超分辨率CT图像重建(UNetSR)。首先,关于通道注意力(Channelattention,CA)及高效通道注意力(Efficientchannelattention,ECA)仅强调通道间信息的交互,无法对通道本身权重特征进行表达的局限性。本文提出通道学习注意力(Channellearningattention,CLA)进行改善,并将CLA嵌入级联残差网络构建级联残差通道学习注意力模块(Cascaderesidualchannellearningattentionblock,CRCLAB)挖掘图像的深层信息。其次,针对UNet中的单尺度下采样提取模块(Single-scaledown-samplingextractionblock,SDEB)进行下采样特征提取时,限于卷积核感受野的大小会丢失较多的图像信息,导致重建图像纹理突变、特征模糊的不良影响。本文通过增加网络模型宽度的方法,提出多尺度下采样提取模块(Multi-scaledown-samplingex-tractionblock,MDEB)优化图像的浅层特征。然后,利用CRCLAB与MDEB联合完成图像的浅层和深层特征提取。最后,利用双线性插值法融合UNet输出的多尺度特征,进而完成图像超分辨率重建。相比其他算法,UNetSR算法使重建图像的质量得到了一定提升,且网络模型的参数量和算法的重建时间均得到了较好的改善。 (2)鉴于对偶回归网络(Dualregressionnetwork,DRN)通过引入对偶损失来约束图像超分辨率重建映射函数的解空间,进而改善图像重建质量的高效性。因此,本文进一步以DRN为基础,提出了残差注意力聚合对偶回归网络超分辨率CT重建(RAADRNet)。首先,将空间注意力(SpatialAttention,SA)改进为空间学习注意力(Spatiallearningatten-tion,SLA),并将SLA形成的空间特征融合模块(Spatialfeaturefusionblock,SFFB)引入CRCLAB网络中构建残差注意力聚合模块(Residualattentionaggregationblock,RAAB),用于图像深层特征的提取。其次,鉴于多尺度下采样提取MDEB无法强化下采样特征提取过程中的通道信息和空间特征,本文进一步将注意力机制CLA与SLA引入MDEB中,形成多特征下采样提取模块(Multi-featuredown-samplingextractionblock,MFDEB)用于改善图像浅层特征信息强化的问题。最后,原始网络将浅层特征与经过亚像素卷积放大的深层特征进行特征融合,并利用融合特征进行多尺度超分辨率重建,对偶网络用于多尺度下采样核的估计。对比相关算法,利用RAADRNet算法得到的重建图像在主、客观评价指标上均得到了较好的改善与提升。 (3)鉴于超分辨率图像重建领域主要以双三次插值Bicubic算法降质获取实验图像,使得算法在较为理想的数据集中进行训练和测试,导致算法的适应性较差。因此,本文将高斯模糊或高斯噪声或联合高斯模糊和高斯噪声引入图像中,获取仅含高斯模糊、仅含高斯噪声及联合高斯模糊和噪声的三种低分辨率数据集。然后,进一步将上述数据集分别放入本文及相关算法中进行CT图像的超分辨率重建。对比相关算法,本文算法在CT图像的超分辨率重建、去高斯模糊和抗高斯噪上具有一定的适应性和可靠性。