大型预训练语言模型能很好的记忆训练语料中的事实知识。在这篇文章中,我们探究隐式知识如何存储在预训练 Transformers 中,引出了一个概念——知识神经元(Knowledge Neurons)。给定一个关系型事实,我们提出了一个知识归因方法去识别哪些神经元存储表示了这个事实。我们提出了这种知识神经元的 activation 是和它们的所表示的知识高度相关的。另外,不需要微调(fine-tuning),我们也能利用知识神经元去显式地编辑(更新,删除)特定事实知识。
Knowledge Neurons in Pretrained Transformers
https://arxiv.org/abs/2104.08696
使用积分梯度法(Integrated Gradients)去归因。积分梯度法是由发表在 PMLR 2017 上的一篇文章《Axiomatic Attribution for Deep Networks》提出的。
论文链接:
http://proceedings.mlr.press/v70/sundararajan17a.html
https://zhuanlan.zhihu.com/p/371240882
由于计算连续的积分是不实际的,我们采用一种近似的方法来计算,这里的 m 取 20。这个也来自于 PMLR 2017 的文章。
通过计算 attribution,我们可以得到每个神经元的分数,通过设置一个阈值 T,来初步筛选出合适的神经元。
用 n 个不同的 prompts 去表达这个事实;
对于每个 prompt,计算每一个中间神经元的归因分数;
对于每个 prompt,设置一个阈值 T,达到这个 T 值的神经元被初步筛选;
对于初步筛选的神经元,设置一个共享阈值 p%(是否被多个 prompt 共享),最终只保留达到这个阈值的神经元。
实验
3.1 实验设置
数据集 ParaRel(TACL2021,测试模型的一致性),每一个关系有 8.64 个不同的 prompt 模板,最多 20 个,最少 2 个,有不同的句法,词汇变化。
由于我们的知识归因和提炼方法对于事实的数量不敏感,所以我们对于每一个关系,采样 50 个事实。
使用 BERT-base-cased,它包含 12 个 Transformer 块,FFN 的 hidden size 是 3072。
设置 T 为 0.3,p% 为 50%。
Measuring and Improving Consistency in Pretrained Language Models. TACL 2021
通过两种方式来验证知识神经元:
另外还抽样了一些不相关的事实,用来验证知识神经元的专有性。结果发现,对神经元的增强和削弱都显著的提高/降低了准确率。但是不相关的知识基本没有影响。证实了:1)知识神经元能控制模型表达;2)知识神经元对其知识具有专有性。
4.1 知识神经元是被知识探测Prompt激活的
由于知识神经元的定位是基于 ParaRel 数据集的,所以用这些 Prompt 去比较它们的 activation 是不公平的。我们爬取 Bing 上的信息,获取新的 Prompt。
对于新数据集,我们比较有多少知识神经元被以下三种 Prompts 激活:1)10 个包含 head 和 tail 的 prompt;2)10 个只包含 head 的 prompt;3)10 个随机选取的 prompt。
第一个包含了知识,而后两个不包含。
知识神经元是被知识探测 prompts 激活的;
知识神经元甚至能被泛化到 open-domain 的没有见过的 prompt。
4.2 激活知识神经元的例子
对于一个关系和它的激活神经元,我们输入 10 个新爬取的 prompts(包含 head 和 tail 实体),将它们放入 PTM 中,去获取知识神经元的平均激活。然后,我们对这些 prompts 进行排序,保留 top-2(activation 最高的),bottom-2(activation 最低的)。我们发现,top-2 总是表示相应的关系事实,而 bottom-2 尽管包含相同的 head 和 tail 实体,但没有表示相应的关系。这个发现表明,知识神经元可以捕获关系事实的语义模式,并且再一次验证了知识神经元是由知识探测 prompt 激活的。
知识编辑
5.1 更新知识
通过这样的方式,完成知识修改。
5.2 删除知识
我们发现,放大或抑制知识神经元的激活可以相应地影响对事实的记忆。此外,对开放域文本的定性分析表明,事实的表达与其知识神经元相关。此外,分析描述了我们如何利用知识神经元显式更新和删除预训练 Transformers 中的事实。
特别鸣谢
感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧