摘要
近年来,人工智能领域技术飞速发展,深度学习算法已在图像识别领域取得了突破性的进展,但算法也逐渐显露出泛化能力差、所需训练数据多等缺点。 目前,以卷积神经网络(Convolutional Neural Network,CNN)为基础的图像识别方法通常需要海量的训练数据和充足的迭代次数,才可对特定的图像类别进行精准的分类。然而,实际应用中研究者常面临数据稀缺的情况,比如罕见物种图片,稀有遥感图像,珍贵的医疗诊断图片。少量的样本通常不足以训练出一个好的深度神经网络,但采集这些数据的难度大且成本高。因此,如何实现少样本图像识别成为了计算机视觉领域热点讨论的问题。 为了解决少样本学习中目标域样本数量匮乏的问题,提出结合表征学习和注意力机制的少样本学习方法VAE-ATTN:首先通过预训练变分自编码器(variational autoencoder,VAE)从任务中学习丰富的隐特征:其次对提取出的隐特征构建注意力机制,使得元学习器能快速地注意到对当前任务重要的特征;最后,将注意力模块增强之后的特征使用分类器进行图像分类。特别地,实验中尝试使用VAE的变体β-VAE引入解耦性先验,促进不同表征的独立表示,以提升样本效率。实验在多个少样本数据集上证明VAE-ATTN方法能获得优异的少样本学习性能。 为了提高现有少样本算法的灵活性,提出自动化元学习方法。该方案使用神经网络架构搜索方法(NAS)来优化模型无关的元学习(Meta-1earning)算法。算法采用一个控制网络,基于强化学习的方法,自动化地生成和评估另一个用于图像分类的子网络。生成子网络在少样本学习的场合,运用模型无关的元学习算法Reptile不断地优化自身网络参数,再将取得的性能值反馈给控制网络进行评估,从而激励控制网络生成架构更加优秀的子网络。两个阶段交互训练,从架构和参数层面联合优化元学习器。在Omniglot等少样本数据集上的实验表明,自动化元学习方法能够训练出适用于小数据量图像分类场景的高性能分类网络。