基于Grad-CAM的Mask-FGSM对抗样本攻击
MASK-FGSM ADVERSARIAL SAMPLES ATTACK BASED ON GRAD-CAM作者机构:复旦大学计算机科学技术学院上海201203
出 版 物:《计算机应用与软件》 (Computer Applications and Software)
年 卷 期:2022年第39卷第7期
页 面:195-200页
学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
主 题:深度学习 Grad-CAM FGSM 可解释性 对抗样本
摘 要:深度学习缺乏可解释性,其容易受到对抗性样本的攻击。对此引入一种深度学习可解释性模型Grad-CAM(Gradient-weighted Class Activation Mapping),通过神经网络输入和输出之间的映射关系得到输入的热力图,结合FGSM(Fast Gradient Sign Method)引入一种高效的算法来生成对抗样本。实验证明,该算法能够挖掘潜在的最佳攻击位置,仅需要修改3.821%的输入特征,就能有效生成使得神经网络错误分类的对抗样本,充分验证了该算法的高效性。