As a language model that integrates traditional symbolic operations and flexible neural representations, recurrent neural network grammars (RNNGs) have attracted great attention from both scientific and engineering perspectives. However, RNNGs are known to be harder to scale due to the difficulty of batched training. In this paper, we propose effective batching for RNNGs, where every operation is computed in parallel with tensors across multiple sentences. Our PyTorch implementation effectively employs a GPU and achieves x6 speedup compared to the existing C++ DyNet implementation with model-independent auto-batching. Moreover, our batched RNNG also accelerates inference and achieves x20-150 speedup for beam search depending on beam sizes. Finally, we evaluate syntactic generalization performance of the scaled RNNG against the LSTM baseline, based on the large training data of 100M tokens from English Wikipedia and the broad-coverage targeted syntactic evaluation benchmark. Our RNNG implementation is available at https://github.com/aistairc/rnng-pytorch/.


翻译:作为融合传统象征性行动和灵活的神经表现的一种语言模式,经常性神经网络语法吸引了科学和工程两方面的极大关注,然而,据知由于分批培训的困难,RNNG更难扩大规模。在本文中,我们建议对RNNG进行有效的分批,因为每次分批的分批都是在多个句子中与加仑并行计算。我们的PyTorrch实施有效地使用了GPU, 并实现了与现有的C++ DyNet实施模式独立自动连接的x6的加速。此外,我们分批的RNNG还加快了推断,并实现了X20-150的加速波束搜索,视波束大小而定。最后,我们根据英国维基百兆维基百兆的大型培训数据和广泛覆盖目标合成评估基准,对照LSTM基准评估了按比例的RNNG的合成性一般表现。我们的RNG实施可以在 https://github.com/aistairc/rng-pytorch/上查阅。

0
下载
关闭预览

相关内容

循环神经网络(RNN)是一类人工神经网络,其中节点之间的连接沿时间序列形成有向图。 这使其表现出时间动态行为。 RNN源自前馈神经网络,可以使用其内部状态(内存)来处理可变长度的输入序列。这使得它们适用于诸如未分段的,连接的手写识别或语音识别之类的任务。
最新LightGBM进展介绍报告,39页ppt
专知会员服务
30+阅读 · 2021年1月15日
最新《Transformers模型》教程,64页ppt
专知会员服务
305+阅读 · 2020年11月26日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
carla无人驾驶模拟中文项目 carla_simulator_Chinese
CreateAMind
3+阅读 · 2018年1月30日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
5+阅读 · 2018年1月16日
VIP会员
相关VIP内容
最新LightGBM进展介绍报告,39页ppt
专知会员服务
30+阅读 · 2021年1月15日
最新《Transformers模型》教程,64页ppt
专知会员服务
305+阅读 · 2020年11月26日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
相关论文
Top
微信扫码咨询专知VIP会员