首页|基于注意力机制和知识蒸馏的小样本增量学习

基于注意力机制和知识蒸馏的小样本增量学习

扫码查看
目前小样本学习模型主要关注在小样本类别上的性能,却忽视了在辅助集上的性能.针对此问题,提出一种基于注意力机制和知识蒸馏的小样本增量学习模型,通过注意力机制来学习对小样本类别的泛化能力,同时通过知识蒸馏来保留对辅助集的鉴别能力,从而保证模型在辅助集和小样本数据上都有很好的分类性能.实验表明,提出的模型不仅仅在小样本数据上取得了良好的性能,并且在辅助集上的性能也没有受到太大的损失.
Few-Shot Incremental Learning Based on Attention Mechanism and Knowledge Distillation
Current few-shot learning mainly focuses on the performance on the few-shot categories data,while ignores the per-formance on the auxiliary set.To address this problem,a few-shot incremental learning model is proposed based on attention mecha-nism and knowledge distillation.The attention mechanism is adopted to learn the generalization ability on the few-shot data,the knowledge distillation is utilized to retain the discriminating ability on the auxiliary set.Therefore,the proposed model has an ac-cepted classification performance on both few-shot data and auxiliary set.Experiments show that the proposed model not only achieves excellent performance on few-shot data,but also does not suffer much performance loss on the auxiliary set.

few-shot learningincremental learningattention mechanismknowledge distillation

崔颖、徐晓峰、包象琳、刘传才

展开 >

南京理工大学计算机科学与工程学院 南京 210094

安徽工程大学计算机与信息学院 芜湖 241000

小样本学习 增量学习 注意力机制 知识蒸馏

国家自然科学基金项目国家自然科学基金项目国家自然科学基金项目安徽省自然科学基金项目安徽省自然科学基金项目

6137306361872188621722252108085QF2642108085QF268

2024

计算机与数字工程
中国船舶重工集团公司第七0九研究所

计算机与数字工程

CSTPCD
影响因子:0.355
ISSN:1672-9722
年,卷(期):2024.52(4)