Probing complex language models has recently revealed several insights into linguistic and semantic patterns found in the learned representations. In this paper, we probe BERT specifically to understand and measure the relational knowledge it captures. We utilize knowledge base completion tasks to probe every layer of pre-trained as well as fine-tuned BERT (ranking, question answering, NER). Our findings show that knowledge is not just contained in BERT's final layers. Intermediate layers contribute a significant amount (17-60%) to the total knowledge found. Probing intermediate layers also reveals how different types of knowledge emerge at varying rates. When BERT is fine-tuned, relational knowledge is forgotten but the extent of forgetting is impacted by the fine-tuning objective but not the size of the dataset. We found that ranking models forget the least and retain more knowledge in their final layer. We release our code on github to repeat the experiments.


翻译:检验复杂的语言模型最近揭示了对在所学的表述中发现的语言和语义模式的一些洞察力。在本文中,我们专门调查生物伦理学和伦理学,以了解和衡量它所捕捉到的关系知识。我们利用知识基础的完成任务来探测经过预先训练的和经过精细调整的生物伦理学和伦理学(排名、问答、NER)的每一层。我们的研究结果表明,知识并不仅仅包含在生物伦理学和伦理学研究小组的最后一层中。中间层(17-60%)对所发现的知识总量的贡献很大。中间层也揭示了不同类型的知识如何以不同的速度出现。当生物伦理学和伦理学小组经过精细调整时,关系知识被遗忘了,但遗忘的程度却受到微调目标的影响,而不是数据集的大小。我们发现,排位模型忘记了最少的,在最后一层中保留了更多的知识。我们发布了关于插图的代码,以重复实验。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年10月9日
【WWW2021】挖掘双重情感的假新闻检测
专知会员服务
36+阅读 · 2021年1月18日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
25+阅读 · 2020年8月19日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Github项目推荐 | awesome-bert:BERT相关资源大列表
AI研习社
27+阅读 · 2019年2月26日
已删除
将门创投
3+阅读 · 2019年1月15日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
3+阅读 · 2019年11月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
20+阅读 · 2019年9月7日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Incremental Reading for Question Answering
Arxiv
5+阅读 · 2019年1月15日
VIP会员
相关VIP内容
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Github项目推荐 | awesome-bert:BERT相关资源大列表
AI研习社
27+阅读 · 2019年2月26日
已删除
将门创投
3+阅读 · 2019年1月15日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员