深度神经网络在图像识别、语音识别和模式分析方面表现出良好的性能。然而,深度神经网络显示出弱点,其中之一是容易受到后门攻击。后门攻击对包含特定触发器的后门样本进行目标模型的额外训练,因此没有触发器的正常数据将被模型正确分类,但包含特定触发器的后门样本将被模型错误地分类。关于这种后门攻击的各种研究已经进行。然而,现有的后门攻击会导致一个分类器的错误分类。在某些情况下,可能需要在有多个模型的环境中对特定模型进行选择性的后门攻击。在本文中,我们提出了一种多模型的选择性后门攻击方法,根据触发器的位置,误导每个模型将样本误分到不同的类别。本研究的实验使用MNIST和Fashion-MNIST作为数据集,TensorFlow作为机器学习库。结果显示,所提出的方案对每个模型的平均攻击成功率为100%,同时对MNIST和Fashion-MNIST的原始样本分别保持97.1%和90.9%的准确性。

成为VIP会员查看完整内容
16

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、物流运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
专知会员服务
13+阅读 · 2021年8月6日
专知会员服务
22+阅读 · 2021年6月17日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
11+阅读 · 2021年1月31日
专知会员服务
39+阅读 · 2021年1月18日
论文浅尝 | 知识图谱增强的机器翻译
开放知识图谱
0+阅读 · 9月30日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
30+阅读 · 2020年6月3日
图像分割的U-Net系列方法
极市平台
48+阅读 · 2019年10月21日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2021年3月29日
已删除
Arxiv
27+阅读 · 2020年3月23日
Anomalous Instance Detection in Deep Learning: A Survey
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
13+阅读 · 2018年12月10日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员