在过去的十年中,神经网络在自然语言处理(NLP)领域已经取得了显著的进展,特别是因为它们能够从大量的未标记语料库中学习相关的单词表征。这些词嵌入可以在监督训练中进行迁移移和微调应用到不同的终端应用。最近,在2018年,整个预训练语言模型的迁移和上下文化能力的保留使得几乎在每一个NLP基准上都达到了前所未有的性能,有时甚至超过了人类的基准。然而,当模型达到如此令人印象深刻的分数时,它们的理解能力仍然显得很肤浅,这揭示了基准的局限性,不能为它们的表现因素提供有用的见解,并准确地衡量理解能力。

在本论文中,我们研究了最SOTA模型在两个重要的信息提取任务(命名实体识别(NER)和关系提取(RE))中关于在未见事实的泛化性能。事实上,传统基准在提到和关系之间存在重要的词汇重叠,用于训练和评估模型,而信息提取的主要兴趣是提取以前未知的信息。我们提出了基于提及和与训练集的关系重叠来分离性能的实证研究,发现预训练的语言模型主要有利于检测未见提及,特别是域外提及。虽然这使得它们适合于真正的用例,但可见和未见提及之间仍然存在性能差距,这不利于对新事实的归纳。特别是,即使是最先进的ERE模型也依赖于浅层记忆启发式,其预测更多地基于论据表面形式而不是上下文。

在这项工作中,我们还巩固了端到端关系提取评估的基础,这一基础被以前的不正确的比较所破坏,并提出了一个更细粒度的评估和理解端到端关系提取模型,以泛化到新的关系。最后,我们提出了在创建未来的模型和数据集时改进上下文合并的想法。

成为VIP会员查看完整内容
30

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
索邦大学121页博士论文《时间序列中的无监督异常检测》
专知会员服务
100+阅读 · 2022年7月25日
专知会员服务
86+阅读 · 2021年9月4日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
论文浅尝 | 多内容实体和关系联合抽取的对抗训练
开放知识图谱
42+阅读 · 2018年12月4日
300页文本知识提取与推断最新教程
机器学习算法与Python学习
13+阅读 · 2018年8月28日
基于神经网络的实体识别和关系抽取联合学习 | PaperWeekly #54
黑龙江大学自然语言处理实验室
19+阅读 · 2017年12月14日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
10+阅读 · 2021年2月18日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
相关资讯
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
论文浅尝 | 多内容实体和关系联合抽取的对抗训练
开放知识图谱
42+阅读 · 2018年12月4日
300页文本知识提取与推断最新教程
机器学习算法与Python学习
13+阅读 · 2018年8月28日
基于神经网络的实体识别和关系抽取联合学习 | PaperWeekly #54
黑龙江大学自然语言处理实验室
19+阅读 · 2017年12月14日
相关基金
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员