The multi-format information extraction task in the 2021 Language and Intelligence Challenge is designed to comprehensively evaluate information extraction from different dimensions. It consists of an multiple slots relation extraction subtask and two event extraction subtasks that extract events from both sentence-level and document-level. Here we describe our system for this multi-format information extraction competition task. Specifically, for the relation extraction subtask, we convert it to a traditional triple extraction task and design a voting based method that makes full use of existing models. For the sentence-level event extraction subtask, we convert it to a NER task and use a pointer labeling based method for extraction. Furthermore, considering the annotated trigger information may be helpful for event extraction, we design an auxiliary trigger recognition model and use the multi-task learning mechanism to integrate the trigger features into the event extraction model. For the document-level event extraction subtask, we design an Encoder-Decoder based method and propose a Transformer-alike decoder. Finally,our system ranks No.4 on the test set leader-board of this multi-format information extraction task, and its F1 scores for the subtasks of relation extraction, event extractions of sentence-level and document-level are 79.887%, 85.179%, and 70.828% respectively. The codes of our model are available at {https://github.com/neukg/MultiIE}.


翻译:2021年语言和情报挑战中的多格式信息提取任务旨在全面评估不同维度的信息提取任务。 它由多个空档关系提取子任务和两个事件提取子任务组成, 从句级和文档级中提取事件。 我们在这里描述我们的多格式信息提取竞争任务系统。 具体来说, 我们将其转换为传统的三重提取任务, 并设计一个基于投票的方法, 充分利用现有模型。 对于判决级事件提取子任务, 我们将其转换为 NER 任务, 并使用基于点标签的方法进行提取。 此外, 考虑附加说明的触发信息可能有助于事件提取, 我们设计了一个辅助触发识别模型, 并使用多任务学习机制将触发特性纳入事件提取模式。 对于文件级提取子任务, 我们设计了一个基于传统三重提取任务的 Encoder-Decoder 方法, 并提议一个类似变压器的解码。 最后, 我们的系统在这项多格式信息提取任务测试板上排名第4号, 使用基于点标签的标签方法 。 此外, 我们的 F1 触发信息提取% mx 级别文件的排序为 。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【干货书】知识图谱与大数据处理,212页pdf
专知会员服务
122+阅读 · 2021年2月2日
专知会员服务
195+阅读 · 2020年10月14日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
Arxiv
0+阅读 · 2021年10月10日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关VIP内容
【干货书】知识图谱与大数据处理,212页pdf
专知会员服务
122+阅读 · 2021年2月2日
专知会员服务
195+阅读 · 2020年10月14日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
Top
微信扫码咨询专知VIP会员