Over the past few years, various word-level textual attack approaches have been proposed to reveal the vulnerability of deep neural networks used in natural language processing. Typically, these approaches involve an important optimization step to determine which substitute to be used for each word in the original input. However, current research on this step is still rather limited, from the perspectives of both problem-understanding and problem-solving. In this paper, we address these issues by uncovering the theoretical properties of the problem and proposing an efficient local search algorithm (LS) to solve it. We establish the first provable approximation guarantee on solving the problem in general cases.Extensive experiments involving 5 NLP tasks, 8 datasets and 26 NLP models show that LS can largely reduce the number of queries usually by an order of magnitude to achieve high attack success rates. Further experiments show that the adversarial examples crafted by LS usually have higher quality, exhibit better transferability, and can bring more robustness improvement to victim models by adversarial training.


翻译:过去几年来,人们提出了各种字级文字攻击方法,以揭示在自然语言处理中使用的深层神经网络的脆弱性;通常,这些方法涉及一个重要的优化步骤,以确定在最初输入的每个单词中使用哪种替代物;然而,从对问题的理解和解决问题的角度来看,目前关于这一步骤的研究仍然相当有限;在本文件中,我们通过发现问题的理论性质和提出高效的当地搜索算法来解决这些问题,来解决这些问题;我们建立了在一般情况下解决问题的第一种可行的近似保证。涉及5个NLP任务、8个数据集和26个NLP模型的广泛实验表明,LS可以大量减少通常按数量排列的询问次数,以达到高攻击成功率。进一步的实验表明,LS所设计的对抗性实例通常质量更高,可以更好地转移,并且可以通过对抗性培训使受害者模型更加稳健。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年4月10日
专知会员服务
141+阅读 · 2021年3月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月21日
Arxiv
0+阅读 · 2022年1月21日
Arxiv
6+阅读 · 2020年10月8日
Generative Adversarial Networks: A Survey and Taxonomy
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员