Text generation from AMR requires mapping a semantic graph to a string that it annotates. Transformer-based graph encoders, however, poorly capture vertex dependencies that may benefit sequence prediction. To impose order on an encoder, we locally constrain vertex self-attention using a graph's tree decomposition. Instead of forming a full query-key bipartite graph, we restrict attention to vertices in parent, subtree, and same-depth bags of a vertex. This hierarchical context lends both sparsity and structure to vertex state updates. We apply dynamic programming to derive a forest of tree decompositions, choosing the most structurally similar tree to the AMR. Our system outperforms a self-attentive baseline by 1.6 BLEU and 1.8 chrF++.


翻译:从 AMR 生成的文本需要绘制一个语义图到一个字符串。 但是, 以变换器为基础的图形编码器, 抓取的顶部依赖性差, 因而可能有利于序列预测 。 要对编码器进行排序, 我们使用图形树分解, 本地限制顶部自我注意 。 我们不是形成完整的查询键双部分图, 而是将注意力限制在父体、 子树和同一深度的顶端袋中。 这种等级环境使顶部状态更新既宽度又结构。 我们使用动态程序来开发树木分解的森林, 选择与 AMR 结构最相似的树。 我们的系统比自惯基线多1.6 BLEU 和 1. 8 chrF++ 。

0
下载
关闭预览

相关内容

自然语言处理顶会COLING2020最佳论文出炉!
专知会员服务
23+阅读 · 2020年12月12日
【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
FLAT:中文NER屠榜之作!
深度学习自然语言处理
6+阅读 · 2020年9月25日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
BERT源码分析PART I
AINLP
38+阅读 · 2019年7月12日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
已删除
将门创投
4+阅读 · 2018年6月4日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
Arxiv
4+阅读 · 2019年1月1日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
6+阅读 · 2018年4月21日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关VIP内容
自然语言处理顶会COLING2020最佳论文出炉!
专知会员服务
23+阅读 · 2020年12月12日
【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
FLAT:中文NER屠榜之作!
深度学习自然语言处理
6+阅读 · 2020年9月25日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
BERT源码分析PART I
AINLP
38+阅读 · 2019年7月12日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
已删除
将门创投
4+阅读 · 2018年6月4日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
相关论文
Top
微信扫码咨询专知VIP会员