Inspired by the notion that ``{\it to copy is easier than to memorize}``, in this work, we introduce GNN-LM, which extends the vanilla neural language model (LM) by allowing to reference similar contexts in the entire training corpus. We build a directed heterogeneous graph between an input context and its semantically related neighbors selected from the training corpus, where nodes are tokens in the input context and retrieved neighbor contexts, and edges represent connections between nodes. Graph neural networks (GNNs) are constructed upon the graph to aggregate information from similar contexts to decode the token. This learning paradigm provides direct access to the reference contexts and helps improve a model's generalization ability. We conduct comprehensive experiments to validate the effectiveness of the GNN-LM: GNN-LM achieves a new state-of-the-art perplexity of 14.8 on WikiText-103 (a 4.5 point improvement over its counterpart of the vanilla LM model) and shows substantial improvement on One Billion Word and Enwiki8 datasets against strong baselines. In-depth ablation studies are performed to understand the mechanics of GNN-LM.


翻译:在这项工作中,我们引入了GNN-LM,通过允许在整个培训材料中参考类似背景来扩展香草神经语言模型(LM),从而扩展了香草神经语言模型(LM),我们在输入背景和从培训材料中挑选的与语言有关的邻里之间建立了定向的多元图形,在输入背景和取回的邻里背景中,节点是符号,边缘代表节点之间的连接。图形神经网络(GNNNs)建在图表上,将类似背景的信息汇总起来,以解码符号。这一学习模式提供了对参考背景的直接访问,并帮助改进了模型的概括化能力。我们开展了全面实验,以验证GNN-LM的有效性:GNN-LM在WikitText-103上实现了14.8的新的状态-艺术混乱(比香草LM模型的对应方改进4.5个百分点),并展示了对一亿维基文和Enwiki8数据集的大幅改进。我们进行了深入的模拟研究,以了解GNNM的机械。

2
下载
关闭预览

相关内容

【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
【图神经网络(GNN)结构化数据分析】
专知会员服务
115+阅读 · 2020年3月22日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
CNN已老,GNN来了!清华大学孙茂松组一文综述GNN
全球人工智能
16+阅读 · 2018年12月26日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Graph Transformer for Graph-to-Sequence Learning
Arxiv
4+阅读 · 2019年11月30日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
5+阅读 · 2018年2月26日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关VIP内容
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
【图神经网络(GNN)结构化数据分析】
专知会员服务
115+阅读 · 2020年3月22日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
CNN已老,GNN来了!清华大学孙茂松组一文综述GNN
全球人工智能
16+阅读 · 2018年12月26日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员