Structured and grounded representation of text is typically formalized by closed information extraction, the problem of extracting an exhaustive set of (subject, relation, object) triplets that are consistent with a predefined set of entities and relations from a knowledge base schema. Most existing works are pipelines prone to error accumulation, and all approaches are only applicable to unrealistically small numbers of entities and relations. We introduce GenIE (generative information extraction), the first end-to-end autoregressive formulation of closed information extraction. GenIE naturally exploits the language knowledge from the pre-trained transformer by autoregressively generating relations and entities in textual form. Thanks to a new bi-level constrained generation strategy, only triplets consistent with the predefined knowledge base schema are produced. Our experiments show that GenIE is state-of-the-art on closed information extraction, generalizes from fewer training data points than baselines, and scales to a previously unmanageable number of entities and relations. With this work, closed information extraction becomes practical in realistic scenarios, providing new opportunities for downstream tasks. Finally, this work paves the way towards a unified end-to-end approach to the core tasks of information extraction. Code and models available at https://github.com/epfl-dlab/GenIE.


翻译:通过封闭式信息提取,典型地将结构化和有根有据地的文字表述形式正规化,从知识基础体系中提取一套与一套预先界定的实体和关系相一致的详尽的三重(主体、关系、对象)技术(主体、对象)技术(主体、对象)技术(主体、对象)技术(主体、实体)技术(主体、实体)技术(主体、对象)技术(主体)技术(主体、对象)技术(主体、对象)技术(主体、三重)技术(主体、实体)技术(主体、对象)技术(主体、对象)技术(主体、对象)技术(主体)技术(主体)技术(主体)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)和基础(部分)技术(部分)技术(部分)技术(部分)技术(部分)技术(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分)(部分

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
108+阅读 · 2020年6月10日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
3+阅读 · 2018年8月27日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关资讯
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员