应用科学学报2024,Vol.42Issue(1) :94-102.DOI:10.3969/j.issn.0255-8297.2024.01.008

基于联邦集成算法对不同脱敏数据的研究

Research on Different Desensitization Data Based on Federated Ensemble Algorithm

罗长银 陈学斌 张淑芬 尹志强 石义 李风军
应用科学学报2024,Vol.42Issue(1) :94-102.DOI:10.3969/j.issn.0255-8297.2024.01.008

基于联邦集成算法对不同脱敏数据的研究

Research on Different Desensitization Data Based on Federated Ensemble Algorithm

罗长银 1陈学斌 2张淑芬 2尹志强 3石义 3李风军4
扫码查看

作者信息

  • 1. 宁夏大学数学统计学院,宁夏银川 750021;华北理工大学理学院,河北唐山 063210;华北理工大学河北省数据科学与应用重点实验室,河北唐山 063210
  • 2. 华北理工大学理学院,河北唐山 063210;华北理工大学河北省数据科学与应用重点实验室,河北唐山 063210
  • 3. 华北理工大学理学院,河北唐山 063210
  • 4. 宁夏大学数学统计学院,宁夏银川 750021
  • 折叠

摘要

针对联邦学习中存在梯度更新导致本地数据可能泄露的问题,提出基于本地脱敏数据上的联邦集成算法.该算法用变异率与适应度阈值的不同取值对原始数据进行脱敏,且使用不同类型的模型在经不同程度脱敏的数据上进行本地模型训练,以确定适合的联邦集成算法参数.实验结果表明,与联邦平均算法和传统集中式训练相比,stacking联邦集成算法与voting联邦集成算法的准确率要优于基线准确率.在实际应用中,可根据不同的需求设置不同的脱敏参数来保护数据,以此提升数据的安全性.

Abstract

To solve the problem that gradient updating leads to the possible leakage of local data in federated learning,federated ensemble algorithms based on local desensitiza-tion data are proposed.The algorithm desensitizes the raw data with different values of variability and fitness thresholds,employing diverse models for local training on data with different desensitization levels to ascertain parameters suitable for a federated ensemble approach.Experimental results show that the stacking federated ensemble algorithm and voting federated integration algorithm outperform the baseline accuracy achieved by the federated average algorithm with traditional centralized training.In practical applications,different desensitization parameters can be set according to different needs to protect data and improve its security.

关键词

联邦学习/梯度更新/联邦集成算法/集成算法

Key words

federated learning/gradient update/federated ensemble algorithm/ensemble algorithm

引用本文复制引用

基金项目

国家自然科学基金(U20A20179)

唐山市科技项目(18120203A)

出版年

2024
应用科学学报
上海大学 中国科学院上海技术物理研究所

应用科学学报

CSTPCD北大核心
影响因子:0.594
ISSN:0255-8297
参考文献量2
段落导航相关论文