首页|基于量化和模型剪枝的卷积神经网络压缩方法

基于量化和模型剪枝的卷积神经网络压缩方法

扫码查看
为了使得用于目标识别的神经网络模型适应普通移动端或者嵌入式设备,需要将模型中对结果无影响的部分卷积通道剪枝,并简化权值数据.鉴于此,提出一种基于卷积神经网络的剪枝和权值量化方法:首先,对卷积神经网络中常见的卷积层和全连接层中的权值在训练后进行大小判别;其次,通过对权值及相应通道的剪枝达到降低卷积神经网络模型体积的目的;最后,对剩余权值进行量化处理,降低卷积神经网络计算成本,并对量化后的模型进行一定微调,以恢复精度.实验显示,网络模型大小降为原来的1/4,推理时间为原来的1/2,使得模型计算成本低于原模型并且计算效率高于原模型.实验结果表明,该方法能显著提升卷积神经网络模型计算速度,并压缩模型大小.
Convolutional Neural Network Compression Method Based on Quantization and Model Pruning

吴卫贤、赵鸣、黄晓丹

展开 >

长江大学计算机科学学院,湖北荆州434023

神经网络 模型剪枝 目标检测 权值量化

D20201304

2021

软件导刊
湖北省信息学会

软件导刊

影响因子:0.524
ISSN:1672-7800
年,卷(期):2021.20(10)
  • 5
  • 21