Adversarial training has been shown to improve the generalization performance of deep learning models in various natural language processing tasks. Existing works usually formulate adversarial training as a zero-sum game, which is solved by alternating gradient descent/ascent algorithms. Such a formulation treats the adversarial and the defending players equally, which is undesirable because only the defending player contributes to the generalization performance. To address this issue, we propose Stackelberg Adversarial Training (SALT), which formulates adversarial training as a Stackelberg game. This formulation induces a competition between a leader and a follower, where the follower generates perturbations, and the leader trains the model subject to the perturbations. Different from conventional adversarial training, in SALT, the leader is in an advantageous position. When the leader moves, it recognizes the strategy of the follower and takes the anticipated follower's outcomes into consideration. Such a leader's advantage enables us to improve the model fitting to the unperturbed data. The leader's strategic information is captured by the Stackelberg gradient, which is obtained using an unrolling algorithm. Our experimental results on a set of machine translation and natural language understanding tasks show that SALT outperforms existing adversarial training baselines across all tasks.


翻译:Aversarial 培训被证明是为了提高各种自然语言处理任务中深层次学习模式的通用性能。现有作品通常将对抗性培训作为一种零和游戏,通过交替梯度的下行/中度算法加以解决。这种配方对敌对方和辩护方一视同仁,因为只有辩护方才有助于概括性表现,这是不可取的。为了解决这个问题,我们提议Stackelberg Aversarial 培训(SALT),将对抗性培训作为Stackelberg游戏来进行。这种配方在领导者与追随者之间引发竞争,让追随者制造扰动,领导者对模型进行触动。与传统的对抗性培训不同,在SALT中,领导者处于有利地位。当领导者移动时,它承认追随者的战略,并将预期的追随者结果考虑在内。这样的导师的优势使我们能够改进模型与未受扰动的数据相匹配。领导人的战略信息由Stackelberg 梯度进行竞争,由跟踪者制造扰动,而领导者对模型进行受扰动。在Stakelberg lexle,正在使用不动的自动理解的系统上显示我们所有的测试基准任务。

0
下载
关闭预览

相关内容

自监督学习最新研究进展
专知会员服务
77+阅读 · 2021年3月24日
专知会员服务
45+阅读 · 2020年10月31日
专知会员服务
124+阅读 · 2020年9月8日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月3日
Arxiv
0+阅读 · 2021年6月2日
Arxiv
7+阅读 · 2019年5月31日
VIP会员
相关VIP内容
自监督学习最新研究进展
专知会员服务
77+阅读 · 2021年3月24日
专知会员服务
45+阅读 · 2020年10月31日
专知会员服务
124+阅读 · 2020年9月8日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员