首页|基于联邦集成算法对不同脱敏数据的研究

基于联邦集成算法对不同脱敏数据的研究

扫码查看
针对联邦学习中存在梯度更新导致本地数据可能泄露的问题,提出基于本地脱敏数据上的联邦集成算法.该算法用变异率与适应度阈值的不同取值对原始数据进行脱敏,且使用不同类型的模型在经不同程度脱敏的数据上进行本地模型训练,以确定适合的联邦集成算法参数.实验结果表明,与联邦平均算法和传统集中式训练相比,stacking联邦集成算法与voting联邦集成算法的准确率要优于基线准确率.在实际应用中,可根据不同的需求设置不同的脱敏参数来保护数据,以此提升数据的安全性.
Research on Different Desensitization Data Based on Federated Ensemble Algorithm
To solve the problem that gradient updating leads to the possible leakage of local data in federated learning,federated ensemble algorithms based on local desensitiza-tion data are proposed.The algorithm desensitizes the raw data with different values of variability and fitness thresholds,employing diverse models for local training on data with different desensitization levels to ascertain parameters suitable for a federated ensemble approach.Experimental results show that the stacking federated ensemble algorithm and voting federated integration algorithm outperform the baseline accuracy achieved by the federated average algorithm with traditional centralized training.In practical applications,different desensitization parameters can be set according to different needs to protect data and improve its security.

federated learninggradient updatefederated ensemble algorithmensemble algorithm

罗长银、陈学斌、张淑芬、尹志强、石义、李风军

展开 >

宁夏大学数学统计学院,宁夏银川 750021

华北理工大学理学院,河北唐山 063210

华北理工大学河北省数据科学与应用重点实验室,河北唐山 063210

联邦学习 梯度更新 联邦集成算法 集成算法

国家自然科学基金唐山市科技项目

U20A2017918120203A

2024

应用科学学报
上海大学 中国科学院上海技术物理研究所

应用科学学报

CSTPCD北大核心
影响因子:0.594
ISSN:0255-8297
年,卷(期):2024.42(1)
  • 2