首页|基于安全多方计算的高效联邦学习协议研究

基于安全多方计算的高效联邦学习协议研究

高克寒

基于安全多方计算的高效联邦学习协议研究

高克寒1
扫码查看

作者信息

  • 1. 电子科技大学
  • 折叠

摘要

作为一种流行的隐私保护深度学习架构,联邦学习(FederatedLearning,FL)近年来受到了广泛关注。在多方训练参与者协同训练的场景下,FL允许参与者在本地训练模型并仅仅上传训练梯度至参数服务器以进行梯度聚合,这有效避免了传统集中式深度学习造成的隐私数据泄露。然而,FL仍然面临一系列安全和隐私问题。首先,由于FL中参与者的本地训练过程是不可见的,恶意参与者可以通过加入精心设计的毒化样本或直接修改上传的梯度以毒化全局模型。此外,恶意参数服务器及参与者仍然可以通过梯度或全局模型推断参与者的隐私。为了同时解决上述问题,本论文对现有的联邦学习隐私保护方案的特点及应用场景进行了总结,具体工作如下: 针对现有联邦学习协议难以同时解决梯度隐私保护及毒化攻击检测的问题,本论文提出了一个高效的隐私保护FL框架(EfficientPrivacy-preservingFederatedLearning,EPPFL)。通过结合代理重新加密(ProxyRe-encryption,PRE)的思想和基于中国剩余定理(ChineseRemainderTheorem,CRT)的shuffle协议来保证梯度模型的隐私性。通过这种方式可以确保任何实体都不能同时获得参与者的原始模型或者其对应的参与者身份信息。此外,该方案还引入了一种新型全局模型掩码算法,以确保在不影响模型训练的前提下保护全局模型的的隐私。并且在隐私保护的前提下,所提出的框架使用模型评估方案来检测毒化攻击。最后,本文提供了EPPFL的安全性证明,并通过实验证明EPPFL可以有效抵御两种典型的毒化攻击。 通过结合不经意传输协议及秘密分享,本论文提出了一个抗共谋的源匿名数据洗牌方案Re-Shuffle。该方案利用不经意传输协议,解决了已有工作在共谋攻击下难以保护参与者梯度匿名性的问题。参与者通过不经意传输与服务器商议唯一的数据上传位置,并通过与其他参与者之间进行单轮的参数交互以实现冲突检测。通过这种方式,每个参与者仅能获取自己的数据上传位置以进行模型上传。同时,服务器无法获取每个参与者具体的数据上传位置。更进一步的,Re-Shuffle采用秘密共享机制,保证了在数据收集阶段参与者的掉线是可恢复的。最后,本论文给出了该方案的安全性证明,并评估了方案的计算开销。

关键词

数据隐私保护/联邦学习/安全多方计算/毒化攻击检测/洗牌协议

引用本文复制引用

授予学位

硕士

学科专业

软件工程

导师

熊虎

学位年度

2023

学位授予单位

电子科技大学

语种

中文

中图分类号

TP
段落导航相关论文