首页|联邦学习中的隐私保护与可验证性研究

联邦学习中的隐私保护与可验证性研究

王美琳

联邦学习中的隐私保护与可验证性研究

王美琳1
扫码查看

作者信息

  • 1. 电子科技大学
  • 折叠

摘要

传统的机器学习方法需要将原始数据移动到数据中心,这不利于用户的隐私保护。联邦学习为了解决数据隐私问题被提出。在联邦学习的一般框架中,每个本地设备使用自己的本地数据训练本地模型,然后将训练好的本地模型的参数上传到服务器。服务器聚合所有上传的参数以更新全局模型。在联邦学习中,本地数据不会直接传输到服务器,一定程度上保护了本地参与者的隐私。但是已经有研究基于生成对抗网络的攻击从用户上传的参数中提取隐私信息。而且聚合服务器可能欺骗用户接受带有利益偏好的模型。联邦学习中的参与者也并不一定是可靠的。这些安全问题会导致联邦学习中各参与方的信任危机,严重影响联邦学习的应用范围。因此,研究联邦学习中的隐私保护、可验证聚合、以及拜占庭鲁棒性成为迫切的需求。 现有的研究方案不能同时保证安全性、模型准确度和效率。因此,本文的研究目标在于提出能够平衡安全、准确度以及效率的联邦学习方案。本文的工作分为以下两点: 1.针对联邦学习中的隐私保护和可验证性问题,以及安全、效率和模型准确度的平衡问题,提出了一种高效且可验证的隐私保护联邦学习方案。该方案利用基于Paillier设计的混合加密来保护参与者的数据隐私,并利用线性同态哈希来高效的验证正确性。与现有方案相比,该方案的安全性保证不会削弱模型的准确度,并且每个参与者的计算和通信开销不会随着参与者数量的增多而增加,使得该方案更加适用于高并发的联邦学习应用场景。 2.针对联邦学习中拜占庭攻击下的隐私保护和可验证性问题,提出了一个高效且安全的联邦学习方案。该方案利用双服务器架构来高效的保证隐私保护和拜占庭鲁棒性,并利用签名算法补充了拜占庭节点存在情况下的验证算法。与现有方案相比,该方案几乎不会因为安全性保证带来额外的性能损失,使得该方案更加适用于边缘计算。

关键词

联邦学习/隐私保护/可验证聚合/拜占庭鲁棒性

引用本文复制引用

授予学位

硕士

学科专业

网络空间安全

导师

李发根

学位年度

2023

学位授予单位

电子科技大学

语种

中文

中图分类号

TP
段落导航相关论文