摘要
随着5G网络的快速发展,海量的工业物联网数据产生,而传统集中式上传至数据中心的处理方式带来了极大的安全隐患。联邦学习(FederatedLearning,FL)作为一种无需上传原始数据,只在本地进行模型训练的新型分布式架构,可以有效地保护用户数据隐私。然而,联邦学习在模型训练过程中要求服务器与多个参与设备进行频繁的通信交互,并且受限于设备的电量与网络带宽资源等因素,严重的通信开销直接影响到系统的网络性能。因此,本文重点针对边缘网络场景下联邦学习的通信开销优化进行研究,论文的研究工作及创新点如下: 1.针对联邦学习中参与方与中央服务器需要不断交互大量模型参数而带来的通信开销过大的问题,提出一种基于联邦强化学习的资源分配及边缘协同优化策略。首先,将参与设备的选择以及训练和传输模型参数所需资源的分配,联合建立了一个随机优化问题,目标是在满足长期能耗和时延要求下,最小化评估损失,并将其转化为一个部分可观察马尔可夫决策过程(PartiallyObservableMarkovDecisionProcess,POMDP);其次,采用一种基于深度强化学习的多智能体算法,通过边缘服务器上分散执行模型并协同计算来获取最优的设备选择及资源分配方案。仿真结果表明,相较于单一优化目标的方案,所提联邦强化学习能够更好地分配链路频谱及设备计算资源,在提高模型精度的同时,有效地减少了通信开销。 2.针对联邦学习过程中因大量设备节点与参数服务器之间冗余的梯度交互通信而带来的通信成本过高问题,提出一种阈值自适应的梯度通信压缩算法。首先,该算法通过对参与设备的本地模型梯度进行累计叠加,并自适应计算出每轮梯度阈值;其次,通过梯度自检公式对所有参与设备进行判断选择,满足自检公式的设备将参与到本轮联邦学习交互,否则继续执行本地迭代。仿真结果表明,所提算法能够在大规模物联网设备场景下,通过对设备节点的自适应筛选,有效地减少了每轮交互过程中的冗余通信。在保障深度学习任务完成准确率的同时,通过降低梯度交互通信次数,有效地提升了模型整体通信效率。