Recently, prompt-tuning has achieved promising results on some few-shot classification tasks. The core idea of prompt-tuning is to insert text pieces, i.e., templates, into the input and transform a classification task into a masked language modeling problem. However, as for relation extraction, determining the appropriate prompt template requires domain expertise. Single label word handcrafted or auto-searched is cumbersome and time-consuming to verify their effectiveness in non-few-shot scenarios. Further, there exist abundant semantic knowledge among the entities and relation labels which cannot be ignored. To this end, we focus on incorporating knowledge into prompt-tuning for relation extraction and propose a Knowledge-aware prompt-tuning with synergistic optimization (KNIGHT) approach. Specifically, we inject entity and relation knowledge into prompt construction with learnable virtual template words and answer words and jointly optimize their representation with knowledge constraints. Extensive experimental results on five datasets with standard and low-resource settings demonstrate the effectiveness of our approach.


翻译:最近,快速调试在一些微小的分类任务上取得了可喜的成果。 快速调试的核心理念是将文字片段(即模板)插入输入中,并将分类任务转化为隐蔽的语言模型问题。然而,关于关系提取,确定适当的快速模板需要域内的专门知识。 单一标签单词手工制作或自动搜索十分繁琐且耗时,以核实其在非微小的情景中的有效性。 此外,各实体之间有大量的语义知识和关系标签,不能忽视。 为此,我们注重将知识纳入关系提取的快速调试,并提议采用协同优化(KNight)方法进行知识意识快速调控。具体地说,我们用可学习的虚拟模板词和回答词将知识与快速构建相联系,并在知识制约下共同优化其代表性。在有标准和低资源环境的五个数据集上的广泛实验结果证明了我们的方法的有效性。

1
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年5月26日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
10+阅读 · 2018年4月19日
VIP会员
相关VIP内容
专知会员服务
41+阅读 · 2021年5月26日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
Top
微信扫码咨询专知VIP会员