咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于Grad-CAM的Mask-FGSM对抗样本攻击 收藏

基于Grad-CAM的Mask-FGSM对抗样本攻击

MASK-FGSM ADVERSARIAL SAMPLES ATTACK BASED ON GRAD-CAM

作     者:余莉萍 Yu Liping

作者机构:复旦大学计算机科学技术学院上海201203 

出 版 物:《计算机应用与软件》 (Computer Applications and Software)

年 卷 期:2022年第39卷第7期

页      面:195-200页

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

主  题:深度学习 Grad-CAM FGSM 可解释性 对抗样本 

摘      要:深度学习缺乏可解释性,其容易受到对抗性样本的攻击。对此引入一种深度学习可解释性模型Grad-CAM(Gradient-weighted Class Activation Mapping),通过神经网络输入和输出之间的映射关系得到输入的热力图,结合FGSM(Fast Gradient Sign Method)引入一种高效的算法来生成对抗样本。实验证明,该算法能够挖掘潜在的最佳攻击位置,仅需要修改3.821%的输入特征,就能有效生成使得神经网络错误分类的对抗样本,充分验证了该算法的高效性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分