摘要
图像翻译是指将图像内容从一个域转换到另一个域,也就是将图像的属性移除并重新赋予新的属性。随着生成对抗网络(Generative Adversarial Networks,GAN)的提出,基于GAN的图像翻译成为深度学习中最热门的方向之一。与传统深度学习的生成模型相比,GAN通过引入一个判别模型,与生成模型进行对抗训练来实现数据生成,可以产生更清晰真实的样本。图像翻译的一个重要应用是人脸属性编辑,它是在保持人脸图像背景不变的条件下将图像修改为给定属性(例如,头发颜色,表情和年龄等)的任务,相关研究已被广泛应用于娱乐、社交等领域。 本文主要针对基于生成对抗网络的人脸属性编辑任务进行研究,主要工作包括以下几个方面: (1)提出了一种基于多尺度判别器的人脸属性编辑模型。自编码器作为生成器,模型的输入为图片和属性。使用属性分类器使生成的图像正确拥有预期的属性。采用多尺度判别器来指导生成器生成更好的细节,在原图上捕捉更多细节信息。将重构损失、属性分类损失和多尺度的GAN损失结合用于人脸属性编辑中。 (2)提出了一种基于选择性传输单元(Selective Transfer Unit,STU)和谱归一化(Spectral Normalization,SN)的人脸属性编辑模型。我们使用一个生成器和两个判别器来实现类似于CycleGAN的功能。此外,生成器将编码器-解码器结构与STU相组合,以选择性地将编码器特征与解码器特征连接。我们的模型将源和目标属性向量之间的差异作为输入,这有助于仅考虑要更改的属性。此外,我们在判别器中使用谱归一化(SN)来稳定训练,从而有效地提高了生成图像的质量。 (3)最后,在CelebA基准数据集实验表明,本文提出的两种方法提高了编辑结果的图像质量和属性编辑能力。此外,进行了全面的对比实验,以证明我们的方法在单属性面部编辑、多属性面部编辑和属性强度控制任务上的有效性。