计算机科学2021,Vol.48Issue(z2) :63-70.DOI:10.11896/jsjkx.201100032

一种新的优化机制:Rain

New Optimization Mechanism:Rain

刘华玲 皮常鹏 刘梦瑶 汤新
计算机科学2021,Vol.48Issue(z2) :63-70.DOI:10.11896/jsjkx.201100032

一种新的优化机制:Rain

New Optimization Mechanism:Rain

刘华玲 1皮常鹏 1刘梦瑶 1汤新1
扫码查看

作者信息

  • 1. 上海对外经贸大学统计与信息学院 上海 201600
  • 折叠

摘要

在机器学习领域,传统模型的损失函数为凸函数,故具有全局最优解,通过传统的梯度下降算法可以求得最优解.但在深度学习领域,由于模型函数的隐式表达及同层神经元的可交换性,其损失函数为非凸函数,传统的梯度下降算法无法求得最优解,即使是较为先进的SGDM,Adam,Adagrad,RMSprop等优化算法也无法逃脱局部最优解的局限性,在收敛速度上虽然已经有很大的提升,但仍不能满足现实需求.现有的一系列优化算法都是针对已有优化算法的缺陷或局限性进行改进,优化效果有些许提升,但对于不同数据集的表现不一致.文中提出一种新的优化机制Rain,该机制结合深度神经网络中的Dropout机制,并融入到优化算法上得以实现.该机制并不是原有优化算法的改进版,而是独立于所有优化算法的第三方机制,但可以和所有优化算法搭配使用,从而提高其对于数据集的适应性.该机制旨在对模型在训练集上的表现进行优化,测试集上的泛化问题并不作为该机制的关注点.文中利用Deep Crossing和FM两个模型搭配5种优化算法,分别在Frappe和MovieLens两个数据集上进行实验,结果表明,加入Rain机制的模型在训练集上的损失函数值明显减小,且收敛速度加快,但其在测试集上的表现与原模型相差无几,即泛化性较差.

关键词

深度学习/优化算法/Dropout机制/Rain机制/收敛速度

引用本文复制引用

出版年

2021
计算机科学
重庆西南信息有限公司(原科技部西南信息中心)

计算机科学

CSTPCDCSCD北大核心
影响因子:0.944
ISSN:1002-137X
参考文献量1
段落导航相关论文