作者:秦禹嘉、林衍凯、高信龙一、刘知远、李鹏、季姮、黄民烈、孙茂松、周杰

类型:Long Paper

摘要:预训练语言模型在各种自然语言处理任务上显示出卓越的性能。但是常规的预训练语言模型并未学会在文本中建模实体的关系事实(relational facts),而这对于理解文本至关重要。为了解决这个问题,我们提出了一种新颖的对比学习框架ERICA,以帮助预训练模型深入了解文本中的实体(entity)及其关系(relation)。具体来说,我们定义了两个新颖的预训练任务:(1)实体区分(entity discrimination)任务,给定头部实体和关系,训练模型推断出对应尾部实体;(2)关系区分(relation discrimination)任务,区分两个关系在语义上是否接近,这涉及复杂的关系推理。实验结果表明,ERICA可以在多种语言理解任务(包括关系抽取,实体类型分辨和问答),尤其是在资源匮乏的环境下,提升预训练模型的性能。该工作与腾讯微信模式识别中心、伊利诺伊大学厄巴纳-香槟分校(UIUC)合作完成。

成为VIP会员查看完整内容
24

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
专知会员服务
12+阅读 · 2021年10月6日
专知会员服务
50+阅读 · 2021年8月13日
专知会员服务
23+阅读 · 2021年6月19日
专知会员服务
38+阅读 · 2021年6月6日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
远程监督在关系抽取中的应用
深度学习自然语言处理
12+阅读 · 2020年10月26日
【关系抽取】详聊如何用BERT实现关系抽取
深度学习自然语言处理
32+阅读 · 2020年3月21日
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
Arxiv
3+阅读 · 2019年9月5日
Arxiv
5+阅读 · 2019年4月21日
VIP会员
相关资讯
远程监督在关系抽取中的应用
深度学习自然语言处理
12+阅读 · 2020年10月26日
【关系抽取】详聊如何用BERT实现关系抽取
深度学习自然语言处理
32+阅读 · 2020年3月21日
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
微信扫码咨询专知VIP会员