Recently, it has been found that monolingual English language models can be used as knowledge bases. Instead of structural knowledge base queries, masked sentences such as "Paris is the capital of [MASK]" are used as probes. We translate the established benchmarks TREx and GoogleRE into 53 languages. Working with mBERT, we investigate three questions. (i) Can mBERT be used as a multilingual knowledge base? Most prior work only considers English. Extending research to multiple languages is important for diversity and accessibility. (ii) Is mBERT's performance as knowledge base language-independent or does it vary from language to language? (iii) A multilingual model is trained on more text, e.g., mBERT is trained on 104 Wikipedias. Can mBERT leverage this for better performance? We find that using mBERT as a knowledge base yields varying performance across languages and pooling predictions across languages improves performance. Conversely, mBERT exhibits a language bias; e.g., when queried in Italian, it tends to predict Italy as the country of origin.


翻译:最近,人们发现单一语言英语模式可以用作知识基础,而不是结构性知识基础查询,而使用“巴黎是[MASK]的首都”等隐含的句子作为探测器。我们把既定基准TREx和GoogleRE翻译成53种语言。我们与MBERT合作,调查三个问题。 (一) mBERT能否作为一个多语言知识基础使用?MBERT?多数先前的工作只考虑英语。将研究扩大到多种语言对于多样性和可获取性很重要。 (二) mBERT作为知识基础语言依赖性或语言不同? (三) 多语言模式在更多的文字上受过培训,例如,MBERT在104维基百科中受过培训。MBERT能否利用这一点提高绩效?我们发现,将 mBERT作为知识基础产生不同语言的不同性能,并汇集各种语言的预测,可以提高绩效。相反, mBERT表现出一种语言偏见;例如,如果用意大利语进行询问,它往往预测意大利为原籍国。

0
下载
关闭预览

相关内容

【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
人工智能 | 国际会议截稿信息5条
Call4Papers
6+阅读 · 2017年11月22日
Arxiv
0+阅读 · 2021年3月24日
Arxiv
0+阅读 · 2021年3月23日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关VIP内容
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
Top
微信扫码咨询专知VIP会员