The field of natural language understanding has experienced exponential progress in the last few years, with impressive results in several tasks. This success has motivated researchers to study the underlying knowledge encoded by these models. Despite this, attempts to understand their semantic capabilities have not been successful, often leading to non-conclusive, or contradictory conclusions among different works. Via a probing classifier, we extract the underlying knowledge graph of nine of the most influential language models of the last years, including word embeddings, text generators, and context encoders. This probe is based on concept relatedness, grounded on WordNet. Our results reveal that all the models encode this knowledge, but suffer from several inaccuracies. Furthermore, we show that the different architectures and training strategies lead to different model biases. We conduct a systematic evaluation to discover specific factors that explain why some concepts are challenging. We hope our insights will motivate the development of models that capture concepts more precisely.


翻译:自然语言理解领域在过去几年里取得了巨大进步,在一些任务中取得了令人印象深刻的成果。 这一成功激励研究人员研究这些模型所编码的基本知识。 尽管如此,试图理解其语义能力的努力一直没有成功,往往导致不同作品之间产生非结论性或相互矛盾的结论。 通过进行筛选的分类,我们提取了过去几年中九种最有影响力语言模型的基本知识图,包括单词嵌入、文本生成器和背景编码器。这一探测基于WordNet的概念关联性。 我们的结果显示,所有模型都为这种知识编码,但有一些不准确之处。 此外,我们显示,不同的结构和培训战略导致不同的模式偏差。我们进行系统评估,以发现解释某些概念为何具有挑战性的具体因素。我们希望我们的洞察力将推动更准确地捕捉到概念的模型的发展。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2021年6月15日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
65+阅读 · 2020年7月12日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
171+阅读 · 2020年2月13日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
已删除
将门创投
6+阅读 · 2019年11月21日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Arxiv
18+阅读 · 2020年10月9日
Type-augmented Relation Prediction in Knowledge Graphs
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
12+阅读 · 2019年2月26日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
6+阅读 · 2019年11月21日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
相关论文
Arxiv
18+阅读 · 2020年10月9日
Type-augmented Relation Prediction in Knowledge Graphs
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
12+阅读 · 2019年2月26日
Top
微信扫码咨询专知VIP会员