Recent research demonstrates that external knowledge injection can advance pre-trained language models (PLMs) in a variety of downstream NLP tasks. However, existing knowledge injection methods are either applicable to structured knowledge or unstructured knowledge, lacking a unified usage. In this paper, we propose a UNified knowledge inTERface, UNTER, to provide a unified perspective to exploit both structured knowledge and unstructured knowledge. In UNTER, we adopt the decoder as a unified knowledge interface, aligning span representations obtained from the encoder with their corresponding knowledge. This approach enables the encoder to uniformly invoke span-related knowledge from its parameters for downstream applications. Experimental results show that, with both forms of knowledge injected, UNTER gains continuous improvements on a series of knowledge-driven NLP tasks, including entity typing, named entity recognition and relation extraction, especially in low-resource scenarios.


翻译:最近的研究表明,外部知识注入可以在各种下游NLP任务中推进预训练的语言模型(PLMs)。然而,现有的知识注入方法既适用于结构化知识,也适用于非结构化知识,缺乏统一的使用方式。在本文中,我们提出了一种统一知识接口(UNTER),以提供统一的视角来利用结构化知识和非结构化知识。在UNTER中,我们采用解码器作为统一知识接口,将编码器中获得的跨度表示与它们对应的知识进行对齐。这种方法使得编码器能够从其参数中统一调用与跨度相关的知识,以用于下游应用。实验结果表明,使用注入的两种形式的知识,UNTER在一系列的知识驱动NLP任务上实现持续的改进,包括实体类型化,命名实体识别和关系抽取,特别是在低资源场景中。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
TensorFlow 2.0 学习资源汇总
专知会员服务
67+阅读 · 2019年10月9日
IJCAI 2022 | 使用陈述句进行视觉问答的Prompt Tuning
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
ERNIE Tutorial(论文笔记 + 实践指南)
AINLP
30+阅读 · 2019年8月28日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
15+阅读 · 2019年11月26日
VIP会员
相关资讯
IJCAI 2022 | 使用陈述句进行视觉问答的Prompt Tuning
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
ERNIE Tutorial(论文笔记 + 实践指南)
AINLP
30+阅读 · 2019年8月28日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员