首页|卷积神经网络中激活函数的一种改进

卷积神经网络中激活函数的一种改进

扫码查看
卷积神经网络中激活函数的作用是激活神经元的特征,然后保留并映射出来,这是人工神经网络能模拟人脑机制,解决非线性问题的关键.针对传统卷积神经网络出现的震荡、不收敛甚至过拟合的情况,对激活ReLU函数进行优化.提出一种新型矫正激活函数,称其为ReLU阈值函数.通过对数据集caltech1 01和caltech256进行训练,证明其在图片分类上的性能要优于ReLU函数.其中用Alexnet网络模型对caltech101数据集进行训练时的分类准确率由之前的97.7%提高到99.3%,对caltech256数据集进行训练时的分类准确率由之前的65.4%提高到92.3%.
An Improvement of the Activation Function in Convolutional Neural Networks

刘小文、郭大波、李聪

展开 >

山西大学物理电子工程学院,山西太原030006

卷积神经网络 激活函数 ReLU PReLU

山西省基础研究资助项目山西省基础研究资助项目

201601D102033201801D121118

2019

测试技术学报
中国兵工学会

测试技术学报

CSTPCD
影响因子:0.305
ISSN:1671-7449
年,卷(期):2019.33(2)
  • 17
  • 6