摘要
近来随着机器学习和深度学习技术的日臻成熟,计算机技术在许多领域都产生了广泛的应用。特别是在卷积神经网络的加持下,深度学习方法在图像分类任务中展现了巨大的潜力。通常图像分类任务的完成很大程度上依赖于大量数据的支撑。然而对于应用在现实场景中的数据集来说,它们的标注成本非常高昂,而且不易大量收集。因此只针对少量数据就能使任务得到很好效果的小样本学习已然成为当下研究的热点。 小样本学习的主要目标是通过少量样本数据,训练出一个泛化性能良好的网络模型。目前小样本图像分类任务大多通过特征提取器和分类器共同完成。但在数据稀疏的情况下,提取图像级别的特征会使得图像信息得不到充分表达,特征提取网络更难以训练;若对提取的特征直接进行度量分类,将难以捕捉类内特征的重要程度及关联性,进而导致分类性能降低。以上方法均不能很好地适用于小样本场景。因此本文选取深度局部描述符作为特征嵌入的结果,从设计局部特征间的度量模块、特征注意力学习、外部约束度量算法,这三个方面及其关联性进行深入研究。 本文的主要工作及创新如下: 首先,设计距离度量模块。对于提取到的较为细致精确的局部特征描述符进行归一化处理;再基于最近邻算法直接选取基于实例的度量方式,通过比较查询样本与支持样本局部描述符间最接近的欧式距离,设计特征间的度量方式。这不仅可以更直观的量化局部特征描述间的差异度,其计算的复杂度也在网络模型的负荷之中。 其次,引入注意力机制。为了使查询集样本的特征得到更好的表达,减轻冗余信息对分类结果的影响,通过计算查询样本的局部描述符向量的通道平均值,从而得到对应局部描述符的注意力权重。此权重值通过学习自主获得,并不在网络中引进新的参数。这使得模型在不产生过拟合可能的同时,也可以很好地区分出查询样本局部特征间的重要程度。 最后,提出了基于注意力机制外部约束的算法模型(简称MACEA)。独特地将查询集样本所得到的注意力权重,以外部运算的形式附加到相应局部特征描述符的距离度量之间。以查询样本局部特征间不同的重要程度,合理地约束了度量模块的计算。从而使得任务的分类性能更好,进一步提升网络模型的学习水平。 小样本分类实验是在miniImageNet数据集上进行的;细粒度分类实验分别在Stanford Dogs、Stanford Cars和CUB-200这三个数据集上展开。除此以外,本文还进行了消融实验。类比于相同设置下的其它网络的结果,本文提出基于注意力机制外部约束的算法模型有着更好的表现,有效地提升了图像分类任务的准确率。可见在样本较为稀疏、图像差别更为细微时,本论文的模型更加的有优势。本文方法的合理性和创新性也得以证明。