To capture the semantic graph structure from raw text, most existing summarization approaches are built on GNNs with a pre-trained model. However, these methods suffer from cumbersome procedures and inefficient computations for long-text documents. To mitigate these issues, this paper proposes HETFORMER, a Transformer-based pre-trained model with multi-granularity sparse attentions for long-text extractive summarization. Specifically, we model different types of semantic nodes in raw text as a potential heterogeneous graph and directly learn heterogeneous relationships (edges) among nodes by Transformer. Extensive experiments on both single- and multi-document summarization tasks show that HETFORMER achieves state-of-the-art performance in Rouge F1 while using less memory and fewer parameters.


翻译:为了从原始文本中捕捉语义图结构,大多数现有汇总方法都建立在经过预先培训的模型中,但这些方法有繁琐的程序,长文本文件的计算效率低;为了缓解这些问题,本文件提议HETFORMER, 一种基于多语种的预培训模型,其多语种对长文本的抽取总结缺乏关注。具体地说,我们将原始文本中的不同类型语义节点作为潜在的多元图,直接学习变异器节点之间的多种关系(前沿)。关于单文档和多语种汇总任务的广泛实验显示,HETFORMER在红色F1中取得了最先进的表现,同时使用较少的记忆和较少的参数。

0
下载
关闭预览

相关内容

【ICML2020】文本摘要生成模型PEGASUS
专知会员服务
34+阅读 · 2020年8月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
已删除
将门创投
7+阅读 · 2019年10月15日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年12月17日
Arxiv
39+阅读 · 2021年11月11日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
5+阅读 · 2019年8月22日
VIP会员
相关VIP内容
【ICML2020】文本摘要生成模型PEGASUS
专知会员服务
34+阅读 · 2020年8月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
已删除
将门创投
7+阅读 · 2019年10月15日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Top
微信扫码咨询专知VIP会员