论文推荐 | 提升100倍速度的切片递归神经网络

2018 年 10 月 25 日 AI研习社

AI 研习社论文推荐版块已经正式上线,欢迎大家前往社区论文板块查阅喔~

http://ai.yanxishe.com/page/paper

(戳文末阅读原文直接进)


Sliced Recurrent Neural Networks

(切片递归神经网络)

Yu Zeping /Liu Gongshen


推荐原因


RNN训练慢、训练困难的问题已经是老生常谈了,循环结构带来的跨越多个步骤时的梯度消失和难以并行的特点几乎被认为是不可克服的,人们也已经接受了“RNN就是这样的”。这篇来自上海交通大学刘功申团队的分片RNN论文就提出了一种新的途径,通过分片的方式极大地提升了RNN的并行性,不仅可以只增加很少的参数数量就增加高维信息提取的能力,更在训练速度上相比传统RNN取得了超过100倍的提升。


来自AI研习社用户@杨 晓凡的推荐


摘要

Recurrent neural networks have achieved great success in many NLP tasks. However, they have difficulty in parallelization because of the recurrent structure, so it takes much time to train RNNs. In this paper, we introduce sliced recurrent neural networks (SRNNs), which could be parallelized by slicing the sequences into many subsequences. SRNNs have the ability to obtain high-level information through multiple layers with few extra parameters. We prove that the standard RNN is a special case of the SRNN when we use linear activation functions. Without changing the recurrent units, SRNNs are 136 times as fast as standard RNNs and could be even faster when we train longer sequences. Experiments on six largescale sentiment analysis datasets show that SRNNs achieve better performance than standard RNNs.


论文查阅地址(扫描二维码直达):

http://ai.yanxishe.com/page/paperDetail/23

如果您有AI领域的优秀论文想与我们分享,欢迎您在AI研习社论文板块进行推荐!


全球AI+智适应教育峰会

免费门票开放申请!

雷锋网联合乂学教育松鼠AI以及IEEE教育工程和自适应教育标准工作组,于11月15日在北京嘉里中心举办全球AI+智适应教育峰会。美国三院院士、机器学习泰斗Michael Jordan、机器学习之父Tom Mitchell已确认出席,带你揭秘AI智适应教育的现在和未来。

扫码免费注册


点击阅读原文即可查阅/收藏更多相关论文

登录查看更多
2

相关内容

递归神经网络(RNN)是神经网络的一种。单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。 时间递归神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward neural network)接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。手写识别是最早成功利用RNN的研究结果。
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
专知会员服务
31+阅读 · 2020年4月24日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
4+阅读 · 2018年1月29日
Arxiv
4+阅读 · 2017年7月25日
Arxiv
4+阅读 · 2015年8月25日
VIP会员
相关资讯
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员