首页|深度神经网络模型压缩综述

深度神经网络模型压缩综述

扫码查看
近年来,随着深度学习的飞速发展,深度神经网络受到了越来越多的关注,在许多应用领域取得了显著效果.通常,在较高的计算量下,深度神经网络的学习能力随着网络层深度的增加而不断提高,因此深度神经网络在大型数据集上的表现非常卓越.然而,由于其计算量大、存储成本高、模型复杂等特性,使得深度学习无法有效地应用于轻量级移动便携设备.因此,压缩、优化深度学习模型成为目前研究的热点.当前主要的模型压缩方法有模型裁剪、轻量级网络设计、知识蒸馏、量化、体系结构搜索等.对以上方法的性能、优缺点和最新研究成果进行了分析总结,并对未来研究方向进行了展望.
Survey of Deep Neural Networks Model Compression

耿丽丽、牛保宁

展开 >

太原理工大学 信息与计算机学院,太原 030024

山西财经大学 实验中心,太原 030006

深度学习 模型压缩 神经网络

National Key Research and Development Program of China under Grant NoKey Research and Development Program of Shanxi Province under Grant No

2017YFB1401000 国家重点研发计划201903D421007 山西省重点研发计划

2020

计算机科学与探索
华北计算技术研究所

计算机科学与探索

CSTPCDCSCD北大核心
影响因子:0.652
ISSN:1673-9418
年,卷(期):2020.14(9)
  • 13
  • 8