Understanding human language is one of the key themes of artificial intelligence. For language representation, the capacity of effectively modeling the linguistic knowledge from the detail-riddled and lengthy texts and getting rid of the noises is essential to improve its performance. Traditional attentive models attend to all words without explicit constraint, which results in inaccurate concentration on some dispensable words. In this work, we propose using syntax to guide the text modeling by incorporating explicit syntactic constraints into attention mechanisms for better linguistically motivated word representations. In detail, for self-attention network (SAN) sponsored Transformer-based encoder, we introduce syntactic dependency of interest (SDOI) design into the SAN to form an SDOI-SAN with syntax-guided self-attention. Syntax-guided network (SG-Net) is then composed of this extra SDOI-SAN and the SAN from the original Transformer encoder through a dual contextual architecture for better linguistics inspired representation. The proposed SG-Net is applied to typical Transformer encoders. Extensive experiments on popular benchmark tasks, including machine reading comprehension, natural language inference, and neural machine translation show the effectiveness of the proposed SG-Net design.


翻译:理解人类语言是人工智能的关键主题之一。对于语言代表而言,从细节和长篇文本中有效地模拟语言知识并消除噪音的能力对于改进其表现至关重要。传统关注模式无明显限制地关注所有字词,导致不准确地集中使用某些可解释的字眼。在这项工作中,我们提议使用语法来指导文本模型,将明确的综合限制纳入关注机制,以更好地激发语言动机的字眼表达。具体而言,对于自我关注网络(SAN)赞助的基于变异器的编码器,我们在SAN中引入兴趣的综合依赖(SDOI)设计,以形成一个带有同步税制引导自我注意的SDOI-SAN。 语法指导网络(SG-Net)随后由这个额外的SDOI-SAN和原变异器编码器的SAN组成,通过一个双重背景结构来更好地激发语言的表达。拟议的SG-Net用于典型的变异器编码器编码。我们在SAN中引入了对大众基准任务的广泛实验,包括机器阅读、自然语言的翻译。

0
下载
关闭预览

相关内容

语言表示一直是人工智能、计算语言学领域的研究热点。从早期的离散表示到最近的分散式表示,语言表示的主要研究内容包括如何针对不同的语言单位,设计表示语言的数据结构以及和语言的转换机制,即如何将语言转换成计算机内部的数据结构(理解)以及由计算机内部表示转换成语言(生成)。
最新《Transformers模型》教程,64页ppt
专知会员服务
312+阅读 · 2020年11月26日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
26+阅读 · 2020年10月15日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年3月4日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
6+阅读 · 2019年4月8日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
VIP会员
相关资讯
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员