深度神经网络在图像识别、语音识别和模式分析方面表现出良好的性能。然而,深度神经网络显示出弱点,其中之一是容易受到后门攻击。后门攻击对包含特定触发器的后门样本进行目标模型的额外训练,因此没有触发器的正常数据将被模型正确分类,但包含特定触发器的后门样本将被模型错误地分类。关于这种后门攻击的各种研究已经进行。然而,现有的后门攻击会导致一个分类器的错误分类。在某些情况下,可能需要在有多个模型的环境中对特定模型进行选择性的后门攻击。在本文中,我们提出了一种多模型的选择性后门攻击方法,根据触发器的位置,误导每个模型将样本误分到不同的类别。本研究的实验使用MNIST和Fashion-MNIST作为数据集,TensorFlow作为机器学习库。结果显示,所提出的方案对每个模型的平均攻击成功率为100%,同时对MNIST和Fashion-MNIST的原始样本分别保持97.1%和90.9%的准确性。

成为VIP会员查看完整内容
24

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
CVPR2022 | 医学图像分析中基于频率注入的后门攻击
专知会员服务
3+阅读 · 2022年7月9日
【ICML2022】Neurotoxin:联邦学习的持久后门
专知会员服务
17+阅读 · 2022年6月26日
CVPR 2022 | 用于目标检测的双加权标签分配
专知会员服务
7+阅读 · 2022年3月26日
鲁棒和隐私保护的协同学习
专知会员服务
35+阅读 · 2021年12月22日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
基于对抗学习的隐私保护推荐算法
机器学习与推荐算法
0+阅读 · 2022年7月26日
评估语言模型的句法能力
TensorFlow
1+阅读 · 2022年1月11日
CVPR 2018 论文解读 | 基于GAN和CNN的图像盲去噪
PaperWeekly
13+阅读 · 2019年1月22日
用缩放CNN消除反卷积带来的棋盘伪影
论智
19+阅读 · 2018年10月30日
【学界】基于条件深度卷积生成对抗网络的图像识别方法
GAN生成式对抗网络
16+阅读 · 2018年7月26日
ISI新研究:胶囊生成对抗网络
论智
17+阅读 · 2018年3月7日
深度学习之CNN简介
Python技术博文
20+阅读 · 2018年1月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年1月12日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
12+阅读 · 2020年12月10日
Arxiv
14+阅读 · 2020年10月26日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
10+阅读 · 2018年4月19日
VIP会员
相关资讯
基于对抗学习的隐私保护推荐算法
机器学习与推荐算法
0+阅读 · 2022年7月26日
评估语言模型的句法能力
TensorFlow
1+阅读 · 2022年1月11日
CVPR 2018 论文解读 | 基于GAN和CNN的图像盲去噪
PaperWeekly
13+阅读 · 2019年1月22日
用缩放CNN消除反卷积带来的棋盘伪影
论智
19+阅读 · 2018年10月30日
【学界】基于条件深度卷积生成对抗网络的图像识别方法
GAN生成式对抗网络
16+阅读 · 2018年7月26日
ISI新研究:胶囊生成对抗网络
论智
17+阅读 · 2018年3月7日
深度学习之CNN简介
Python技术博文
20+阅读 · 2018年1月10日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2023年1月12日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
12+阅读 · 2020年12月10日
Arxiv
14+阅读 · 2020年10月26日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
10+阅读 · 2018年4月19日
微信扫码咨询专知VIP会员