摘要
胃癌是困扰全世界的疾病之一,医学图像分割作为一项重要的辅助手段,快速且准确地分割出胃癌病理图像中病变区域的研究受到越来越多人的关注。目前, U-Net在各种医学图像分割任务中都取得了显著的成果,这得益于它简单而有效的U型结构以及端到端的训练方式。然而,胃癌病理图像相较超声等医学造影图像存在胃癌病变区域和形状不确定、胃癌病变区域边缘复杂和相关数据集数据偏少的问题,导致常规的U-Net并不能取得很好的效果。为了进一步提高胃癌病理图像的分割准确度,本文针对上述提出的三个问题,围绕基于U-Net的医学图像分割方法展开研究,论文主要内容和创新工作如下: (1)针对胃癌细胞位置、形状不确定的特点以及胃癌数据集数据偏少,容易出现过拟合的问题,本文在已有的U-Net模型基础上,提出了一种新的基于EfficientNetV2和测试阶段增强的ETU-Net。 ETU-Net以经过ImageNet21k预训练的EfficientNetV2作为骨干特征提取网络,增强网络编码器的特征提取能力,并使用测试阶段增强后处理,通过对输入图像进行翻转和不同角度旋转的变换,从多个角度预测输入图像,再通过特征融合的方式将多个预测结果进行合并,进一步优化网络的输出结果,能有效解决医学数据集较小的问题。该模型在SEED数据集、BOT数据集和Pascal VOC2012数据集上进行实验,其平均交并比分别可以达到81.1%、74.9%、76.2%,验证了模型的有效性。 (2)针对胃癌病变区域边缘复杂,上采样过程中细节丢失的问题,本文在ETU-Net的基础上,提出了一种新的基于注意力和物体上下文特征的EOU-Net+,首先,该模型在上采样过程中加入了改进后的注意力门模块,让网络得到权衡特征图重要性的能力,将注意力放在含有病变细胞的特征图上,减少上采样过程中的细节丢失。然后,当网络上采样到原图二分之一的大小时,通过改进后的物体上下文特征模块,让网络能探索细胞像素间的关系,判断相邻像素是否属于同一类,从而提高边缘分割的准确度。同样,该模型在SEED数据集、BOT数据集和Pascal VOC2012数据集上进行实验,其平均交并比分别可以达到81.8%、75.7%、77.3%,实现了更准确的分割。