Recent approaches have exploited weaknesses in monolingual question answering (QA) models by adding adversarial statements to the passage. These attacks caused a reduction in state-of-the-art performance by almost 50%. In this paper, we are the first to explore and successfully attack a multilingual QA (MLQA) system pre-trained on multilingual BERT using several attack strategies for the adversarial statement reducing performance by as much as 85%. We show that the model gives priority to English and the language of the question regardless of the other languages in the QA pair. Further, we also show that adding our attack strategies during training helps alleviate the attacks.


翻译:最近的做法利用了单一语言问题解答模式中的弱点,在段落中增加了对抗性言论,这些袭击导致最新业绩下降近50%,在本文中,我们是第一个探索和成功打击多语种问题解答(MLQA)系统(MLQA)系统(MLQA)的人,在多语种问题解答中,我们使用数种攻击策略对多语种问题解答(QA)系统进行了预先培训,使工作表现下降高达85%。我们表明,该模式优先考虑英语和问题语言,而不论对口语中的其他语言。此外,我们还表明,在培训期间增加攻击策略有助于缓解袭击。

0
下载
关闭预览

相关内容

自动问答(Question Answering, QA)是指利用计算机自动回答用户所提出的问题以满足用户知识需求的任务。不同于现有搜索引擎,问答系统是信息服务的一种高级形式,系统返回用户的不再是基于关键词匹配排序的文档列表,而是精准的自然语言答案。近年来,随着人工智能的飞速发展,自动问答已经成为倍受关注且发展前景广泛的研究方向。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
35+阅读 · 2020年12月28日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Arxiv
1+阅读 · 2021年6月4日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关论文
Arxiv
1+阅读 · 2021年6月4日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
3+阅读 · 2017年12月18日
Top
微信扫码咨询专知VIP会员