国家学术搜索
登录
注册
中文
EN
首页
|
基于Grad-CAM的Mask-FGSM对抗样本攻击
基于Grad-CAM的Mask-FGSM对抗样本攻击
MASK-FGSM ADVERSARIAL SAMPLES ATTACK BASED ON GRAD-CAM
下载
引用
认领
扫码查看
点击上方二维码区域,可以放大扫码查看
原文链接
国家科技期刊平台
NETL
NSTL
维普
万方数据
中文摘要:
深度学习缺乏可解释性,其容易受到对抗性样本的攻击.对此引入一种深度学习可解释性模型Grad-CAM(Gradient-weighted Class Activation Mapping),通过神经网络输入和输出之间的映射关系得到输入的热力图,结合FGSM(Fast Gradient Sign Method)引入一种高效的算法来生成对抗样本.实验证明,该算法能够挖掘潜在的最佳攻击位置,仅需要修改3.821%的输入特征,就能有效生成使得神经网络错误分类的对抗样本,充分验证了该算法的高效性.
收起全部
展开查看外文信息
作者:
余莉萍
展开 >
作者单位:
复旦大学计算机科学技术学院 上海201203
关键词:
深度学习
Grad-CAM
FGSM
可解释性
对抗样本
出版年:
2022
DOI:
10.3969/j.issn.1000-386x.2022.07.030
计算机应用与软件
上海市计算技术研究所 上海计算机软件技术开发中心
计算机应用与软件
CSTPCD
北大核心
影响因子:
0.615
ISSN:
1000-386X
年,卷(期):
2022.
39
(7)
被引量
1
参考文献量
1