信息网络安全2024,Vol.24Issue(10) :1562-1569.DOI:10.3969/j.issn.1671-1122.2024.10.010

基于知识蒸馏的无数据个性化联邦学习算法

A Data-Free Personalized Federated Learning Algorithm Based on Knowledge Distillation

陈婧 张健
信息网络安全2024,Vol.24Issue(10) :1562-1569.DOI:10.3969/j.issn.1671-1122.2024.10.010

基于知识蒸馏的无数据个性化联邦学习算法

A Data-Free Personalized Federated Learning Algorithm Based on Knowledge Distillation

陈婧 1张健2
扫码查看

作者信息

  • 1. 南开大学计算机学院,天津 300350;天津市网络与数据安全技术重点实验室,天津 300350
  • 2. 南开大学计算机学院,天津 300350;天津市网络与数据安全技术重点实验室,天津 300350;南开大学网络空间安全学院,天津 300350
  • 折叠

摘要

联邦学习算法通常面临着客户端之间差异巨大的问题,这些异质性会降低全局模型性能,文章使用知识蒸馏方法缓解这个问题.为了进一步解放公共数据,完善模型性能,文章所提的DFP-KD算法使用无数据方法合成训练数据,利用无数据知识蒸馏方法训练鲁棒的联邦学习全局模型;使用ReACGAN作为生成器部分,并且采用分步EMA快速更新策略,在避免全局模型灾难性遗忘的同时加快模型的更新速率.对比实验、消融实验和参数取值影响实验表明,DFP-KD算法比经典的无数据知识蒸馏算法在准确率、稳定性、更新速度方面都更具优势.

Abstract

Federated learning algorithms usually face the problem of huge differences between clients,and these heterogeneities degrade the global model performance,which are mitigated by knowledge distillation approaches.In order to further liberate public data and improve the model performance,DFP-KD trained a robust federated learning global model using datad-free knowledge distillation methods;used ReACGAN as the generator part;and adopted a step-by-step EMA fast updating strategy,which speeded up the update rate of the global model while avoiding catastrophic forgetting.Comparison experiments,ablation experiments,and parameter value influence experiments show that DFP-KD is more advantageous than the classical data-free knowledge distillation algorithms in terms of accuracy,stability,and update rate.

关键词

联邦学习/异质性/知识蒸馏/图像生成

Key words

federated learning/heterogeneity/knowledge distillation/image generation

引用本文复制引用

基金项目

国家重点研发计划(2022YFB3103202)

天津市重点研发计划(20YFZCGX00680)

天津市新一代人工智能科技重大专项(19ZXZNGX00090)

出版年

2024
信息网络安全
公安部第三研究所 中国计算机学会计算机安全专业委员会

信息网络安全

CSTPCDCHSSCD北大核心
影响因子:0.814
ISSN:1671-1122
段落导航相关论文