迁移对抗性攻击是一种非常难的黑箱对抗性攻击,其目标是对代理模型制造对抗性扰动,然后将这种扰动应用于受害者模型。然而,现有方法的扰动的可迁移性仍然有限,因为对抗性扰动很容易与单一代理模型和特定的数据模式过拟合。在本文中,我们提出了一种学会学习可迁移攻击(LLTA)方法,通过从数据和模型增强中学习,使对抗摄动更加一般化。对于数据增强,我们采用简单的随机大小和填充。在模型增强方面,我们随机改变正向传播而不是反向传播,以消除对模型预测的影响。通过将特定数据和修正模型的攻击作为一项任务来处理,我们期望对抗摄动采用足够的任务来泛化。为此,在扰动生成迭代过程中进一步引入元学习算法。在广泛应用的数据集上进行的实验结果表明,该攻击方法的传输攻击成功率比现有方法提高了12.85%。我们还在现实世界的在线系统,即谷歌云视觉API上对我们的方法进行了评估,以进一步展示我们的方法的实用潜力。

https://arxiv.org/abs/2112.06658

成为VIP会员查看完整内容
14

相关内容

【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
AAAI2022 | 针对事件论元抽取学会高效地提问
专知会员服务
11+阅读 · 2022年1月5日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
专知会员服务
21+阅读 · 2021年5月27日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
专知会员服务
9+阅读 · 2020年11月12日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
【文章】深度神经网络中的对抗样本与学习7篇文章
GAN生成式对抗网络
6+阅读 · 2017年9月8日
Attention Network Robustification for Person ReID
Arxiv
5+阅读 · 2019年10月15日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
VIP会员
相关VIP内容
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
AAAI2022 | 针对事件论元抽取学会高效地提问
专知会员服务
11+阅读 · 2022年1月5日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
专知会员服务
21+阅读 · 2021年5月27日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
专知会员服务
9+阅读 · 2020年11月12日
微信扫码咨询专知VIP会员