Large-scale pretrained language models are surprisingly good at recalling factual knowledge presented in the training corpus. In this paper, we explore how implicit knowledge is stored in pretrained Transformers by introducing the concept of knowledge neurons. Given a relational fact, we propose a knowledge attribution method to identify the neurons that express the fact. We present that the activation of such knowledge neurons is highly correlated to the expression of their corresponding facts. In addition, even without fine-tuning, we can leverage knowledge neurons to explicitly edit (such as update, and erase) specific factual knowledge for pretrained Transformers.


翻译:大规模预先培训的语言模型在回顾培训材料中提供的事实知识方面出人意料地十分出色。 在本文中,我们通过引入知识神经元的概念,探索隐含知识如何储存在预先培训的变异器中。基于一个关联性事实,我们提出了一个知识归属方法来识别能表达事实的神经元。我们提出,这种知识神经元的激活与其相应事实的表达密切相关。此外,即使不进行微调,我们也可以利用知识神经元来明确编辑(如更新和删除)预培训变异器的具体事实知识。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2021年6月15日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
30+阅读 · 2019年10月16日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
已删除
将门创投
4+阅读 · 2018年6月26日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
3+阅读 · 2019年11月28日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
5+阅读 · 2019年8月22日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2018年6月26日
相关论文
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
3+阅读 · 2019年11月28日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
5+阅读 · 2019年8月22日
Top
微信扫码咨询专知VIP会员