重庆理工大学学报2021,Vol.35Issue(7) :139-145.DOI:10.3969/j.issn.1674-8425(z).2021.07.017

一种改进的分布式同步梯度下降法

An Improved Distributed Synchronous Gradient Descent Method

李梁 王也 朱小飞
重庆理工大学学报2021,Vol.35Issue(7) :139-145.DOI:10.3969/j.issn.1674-8425(z).2021.07.017

一种改进的分布式同步梯度下降法

An Improved Distributed Synchronous Gradient Descent Method

李梁 1王也 1朱小飞1
扫码查看

作者信息

  • 1. 重庆理工大学 计算机科学与工程学院,重庆 400054
  • 折叠

摘要

在深度学习领域中,模型的训练往往非常耗时,尤其是当模型较复杂时,分布式训练则是解决这个问题的一个主要方式.以往的案例中,用分布式训练神经网络能够得到非常好的加速效果,是因为采用了异步梯度下降法,但是这样会导致准确率下降.也有用同步梯度下降法来提升训练的准确率,但由于实际分布式的异构集群中各个计算节点的算力差距,会出现计算节点空闲等待的现象,使得模型的训练耗时十分不理想.采取改进同步梯度下降方法,通过设计新的样本分配机制,充分利用各个工作节点来加速模型训练.实验结果证明:所采取的方法在不降低准确率的情况下能够加快模型的训练速度.

关键词

深度学习/模型训练/分布式/梯度下降

引用本文复制引用

出版年

2021
重庆理工大学学报
重庆理工大学

重庆理工大学学报

CSTPCD北大核心
影响因子:0.567
ISSN:1674-8425
参考文献量1
段落导航相关论文