首页|基于知识蒸馏的无数据个性化联邦学习算法

基于知识蒸馏的无数据个性化联邦学习算法

扫码查看
联邦学习算法通常面临着客户端之间差异巨大的问题,这些异质性会降低全局模型性能,文章使用知识蒸馏方法缓解这个问题.为了进一步解放公共数据,完善模型性能,文章所提的DFP-KD算法使用无数据方法合成训练数据,利用无数据知识蒸馏方法训练鲁棒的联邦学习全局模型;使用ReACGAN作为生成器部分,并且采用分步EMA快速更新策略,在避免全局模型灾难性遗忘的同时加快模型的更新速率.对比实验、消融实验和参数取值影响实验表明,DFP-KD算法比经典的无数据知识蒸馏算法在准确率、稳定性、更新速度方面都更具优势.
A Data-Free Personalized Federated Learning Algorithm Based on Knowledge Distillation
Federated learning algorithms usually face the problem of huge differences between clients,and these heterogeneities degrade the global model performance,which are mitigated by knowledge distillation approaches.In order to further liberate public data and improve the model performance,DFP-KD trained a robust federated learning global model using datad-free knowledge distillation methods;used ReACGAN as the generator part;and adopted a step-by-step EMA fast updating strategy,which speeded up the update rate of the global model while avoiding catastrophic forgetting.Comparison experiments,ablation experiments,and parameter value influence experiments show that DFP-KD is more advantageous than the classical data-free knowledge distillation algorithms in terms of accuracy,stability,and update rate.

federated learningheterogeneityknowledge distillationimage generation

陈婧、张健

展开 >

南开大学计算机学院,天津 300350

天津市网络与数据安全技术重点实验室,天津 300350

南开大学网络空间安全学院,天津 300350

联邦学习 异质性 知识蒸馏 图像生成

国家重点研发计划天津市重点研发计划天津市新一代人工智能科技重大专项

2022YFB310320220YFZCGX0068019ZXZNGX00090

2024

信息网络安全
公安部第三研究所 中国计算机学会计算机安全专业委员会

信息网络安全

CSTPCDCHSSCD北大核心
影响因子:0.814
ISSN:1671-1122
年,卷(期):2024.24(10)