【重温序列模型】再回首DeepLearning遇见了RNN

2020 年 11 月 14 日 AINLP

作者 | Miracle8070
研究 | 时空序列预测与数据挖掘
出品 | AI蜗牛车


1. 前言

学习时空序列, 会需要很多序列模型的相关知识,所以借着这次机会想重新学习一下深度学习里面的序列模型模块,并做一个知识的梳理,主要会包括RNN, LSTM和GRU, seq2seq, embedding和Attention。由于之前学习的时候, 没有深入到具体细节的研究, 所以导致现在复现一些网络或者学习深度学习进阶知识的时候会出现一些问题,于是想再重温一下, 并做一个总结, 相信每一次学习都会有新的收获。这次的整理主要是知识的串联和查缺补漏(可能不会涉及到太基础的内容), 所以既会恍如初见也会似曾相识,这样才更有意思,哈哈。我们一起来重温基础吧。

这一部分每篇可能会比较长,因为想还是尽量通俗易懂且全面,所以开篇之前会给出简介,方便大家根据自己已掌握的知识进行查缺补漏。

再回首DeepLearning遇见了RNN, 这篇文章会先从全连接神经网络开始, 看一下神经网络到底长什么样子以及如何进行计算, 然后针对一些特殊的任务说一下全连接神经网络的局限性引出循环神经网络架构, 根据这个结构说一些基础知识和运算细节, 并用numpy简单实现一下RNN的前向传播过程, 最后分析一下传统RNN的局限性, 通过反向传播的公式看一下RNN为什么会存在梯度消失和爆炸, 而有了梯度消失为啥又不能捕捉到长期关联, 如何解决梯度消失问题等。 通过解决方法引出LSTM和变体GRU, 方便我们下一次的探索。

大纲如下

  • 理解RNN?我们先从全连接神经网络开始
  • 关于RNN结构的基础知识和计算细节
  • RNN前向传播的numpy实现与RNN的局限性
  • 总结

2. RNN?我们还是先从全连接神经网络开始说起吧

说到全连接神经网络, 我们应该是不陌生了, 并且也非常熟悉它的运算过程, 下面拿我之前画的一张图简单回顾一下神经网络:假设我有64个样本, 1000个特征,我们要做一个回归任务, 如果用普通的全连接的话, 会是下面的一个计算过程(这个相信大家都能看明白了):上面其实就是全连接网络的一个总体计算过程,左上就是一个全连接神经网络示意图, 一个全连接神经网络有一个输入层, 若干个隐藏层和一个输出层, 它的计算步骤包括前向传播, 计算损失, 反向传播, 更新参数,然后重复这个过程。具体细节就不再这里展开了, 这种网络功能也是非常强大, 由于激活函数的存在,也善于学习很复杂的非线性关系。

但是有些任务, 比如我们的输入是一个句子:Cat  is  beautiful! 让这个神经网络进行翻译, 我们一般要这么做, 首先,会把上面这3个单词转成向量的形式,要不然模型不认识, 可以通过one-hot或者embedding等, 然后我们喂入神经网络, 得到输出:应该是一个这样的过程, 上面这个图得好好理解一下, 这就是如果基于全连接网络的话会是这样的一个图, 这里之所以画成3步,就是为了后面更好的理解循环神经网络, 如果看过吴恩达老师的深度学习, 这里画的是这样的一个图:这里也拿来做个对比吧, 这个图的话很容易把特征和不同时间步的序列给搞混了, 并且不利于后面和递归神经网络进行对比,所以我把每个单词的翻译给分开了, 分别通过神经网络进行翻译。

但是上面这种网络存在一些问题, 很大的一个问题就是单词和单词之间的翻译孤立起来了, 没有关联了, 但是我们知道句子翻译很大程度上是依赖于上下文的, 如果不看上下文, 很容易把某个词翻译错的。比如我前面的cat换成cats, 后面的is就需要换成are, 但是在上面的神经网络里面, 是学习不到这种词与词之间的关联关系, 所以这种神经网络对于这种时序性的任务不擅长, 也就是说如果我的输入是一串序列,并且这串序列前后之间有关联关系, 比如一个句子, 一段音乐, 一段语音,一段视频, 一段随时间变化的数据(股票,温度)等这样的数据, 如果想用一个网络对这样的数据进行建模, 比如捕捉这些前后的关联关系,全连接神经网络是不行的,于是循环神经网络来了。

3. 关于RNN结构的基础知识和计算细节

啥叫循环神经网络呢?这里的循环到底干什么事情呢? 下面这个就是循环神经网络的图, 通过这个图很容易看到循环吧, 但是对于初学者来说,这个图并不是那么好理解:其实,虽然这个图不是那么好理解, 那还是这个图能够真正的表示循环神经网络,更能看出一种循环, 简单的说, 循环神经网络在做一件这样的事情:

我们的输入序列不是说有时间的先后关系吗?我们不是说要捕捉不同时间步中输入数据的关联吗?看看RNN是如何做的:

我们不妨设t-1, t, t+1三个时刻, 首先神经网络会接收t-1时刻的输入 进行运算, 然后求出隐藏状态 和输出 , 计算完毕之后, 会把隐藏状态的值 和t时刻的输入 同时作为t时刻的神经网络的运算输入, 然后进行计算得到 , 计算完毕之后, 把t时刻的隐态 与t+1时刻的输入 作为t+1时刻神经网络的输入, 计算 , 这个过程是一气呵成的, 之所以称之为循环,就是因为它需要在多个时间步中反复执行这个计算过程, 而后面时间步里面的计算,需要用到前面时间步中的结果, 通过这种方式去捕捉序列之间的关联关系。

下面看两张动图感受一下这个过程(感谢某大佬提供的神图):第一个过程, 每个时间步接收一个输入, 并进行计算处理第二个过程, 前一时间步处理的结果要传递到下一个时间步

所以上面这个过程我们可以用下面的公式表示:

也就是当前时刻t的隐藏状态 不仅仅取决于当前的输入 , 还取决于前一个时刻的隐藏状态值 , 这里的 激活函数了。看下图可能会更加清楚:如果是把我上面举得那个例子拿下来的话,就是这样的一个感觉所以这里要注意一些细节:

  • 不要以为这是很多个全连接神经网络,其实这就是一个神经网络,只不过不同的时间步用了不同的输入而已。
  • 这里的前向传播过程是一气呵成的, 就是在一个时间步的循环中,直接进行每个时间步的前向传播,得到最后的结果。
  • 注意这里的可学习参数 , 不同的时间步里面都使用的这一套参数, 所以这里的参数是共享的, 参数共享有很多好处, 比如减少计算量, 比如特征提取, 也可以让模型更好的泛化, 比如我去年去了北京, 和去年我去了北京, 这两个句子意思一样, 但是文字位置不同,共享的参数有利于学习词义本身而不是每个位置的规则。
  • 这里还要注意几个名词, 第一个就是timesteps, 表示时间步长, 也就是时间序列的长度, 需要循环迭代的次数, 第二个就是input_dim, 这个表示的每个时间步的输入数据有多少个特征, 第三个是units, 这个指的是上面隐藏层有多少个神经单元, 为什么要说这三个名词呢?因为在使用实际用RNN或者LSTM的时候,这三个是核心参数,后面整理LSTM的时候,会看看keras的LSTM层如何用,那时候会再次看到这三个名词

下面我们把上面按照时间线展开的RNN换一种形式表示,就是把那个圆圈给它再放大放大,进来看看细节:这个就是RNN按照时间线展开的图了,这里的符号可能和上面表示的不一样,这里我就先不统一符号了,毕竟参考的资料不一样, 希望大家能get原理, 上面这个图是取自吴恩达老师的深度学习课程, 这里的RNN-cell, 可以理解成那个隐藏层, 里面当然很多个隐藏单元, 我们可以看一下这里面的整体计算:这里与上面不同的是,指明了具体的激活函数 了,这个公式和上面循环神经网络的计算公式一样, 无非是符号换了一下。

下面我们可以基于上面的这个RNN的运算过程, 用numpy简单的写一下。为了看清楚这个过程, 还找了张动图:动图后面会给出参考链接。

4. RNN前向传播的numpy实现与RNN的局限性

根据上面的图, 我们就用numpy代码简单实现一下RNN的前向传播,这样更容易里面RNN的前向传播过程, 首先,依然是先定义上面细节中的三个名词:timesteps, input_dim和units, 这里我们假设时间步长是4, input_dim是3, units是5, 然后10个样本。  实现过程,我们先看看一个RNN-cell里面的计算, 把上面的图拿下来:先实现一个Cell里面的计算过程, 我们可以先看一下这里面的输入有当前时间步的输入数据xt, 前一时间步的输入数据a_prev, 然后输出有a_t, yt_pred, 而计算公式就是上面那个,参数有 , 维度是(5, 3), 这个根据input_dim和units确定的,因为它描述的是输入和隐藏单元之间的一种映射, , 维度是(5, 5), 这个是units确定, 因为它描述的是隐藏单元与下一个时间步隐藏单元的映射, , 维度是(2, 5),描述的是输出与隐藏单元的映射, 所以可以直接定义一个函数, 写这个计算过程:

def rnn_cell_forward(xt, a_prev, parameters):
 
 # 获得参数
 Wax = parameters["Wax"]
    Waa = parameters["Waa"]
    Wya = parameters["Wya"]
    ba = parameters["ba"]
    by = parameters["by"]
 
 
 # cell 的前向传播
 a_t = np.tanh(np.dot(Wax, xt) + np.dot(Waa, a_prev) + ba)
 yt_pred = softmax(np.dot(Wya, a_t) + by)
 
 # 保存一下重要结果
 cache = (a_t, a_prev, xt, parameters)
 
 return a_t, yt_pred, cache

xt = np.random.randn(3,10)
a_prev = np.random.randn(5,10)

# 初始化参数
Waa = np.random.randn(55)
Wax = np.random.randn(53)
Wya = np.random.randn(25)
ba = np.random.randn(51)
by = np.random.randn(21)

a_next, yt_pred, cache = rnn_cell_forward(xt, a_prev, parameters)

这就是cell的前向传播, 当然这里面有一些细节, 比如像那些参数, a_next, a_prev, xt这些东西, 最好都保存一下,反向传播的时候会用到。

一个cell的前向传播完毕, 那么整个RNN的前向传播应该咋写呢?还是看图有了一个cell的计算, 整个RNN其实就是时间步的一个循环, 所以可以用一个时间步循环解决这个问题, 还是先分析一下, 接收的数据是a0和整个x, 这个x的维度就是(input_dim, m, timesteps), 而a0的维度就是(units, m), 而这里的输出有最后一步的a, 这个维度是(units, m, timesteps), y_pred, 维度是(n_y, m, timesteps)。 过程就是遍历每个时间步, 得到本时间步的输出y和下一步的输入a_next, 把这个加入到最后的y和a里面即可。

def rnn_forward(x, a0, parameters):
 
 caches = []   # 保存结果
 
 # 获取到那几个重要的参数
 input_dim, m, T_x = x.shape
 n_y, units = parameters['Wya'].shape
 
 # 初始化a, y_pred
 a = np.zeros((units, m, T_x))
 y_pred = np.zeros((n_y, m, T_x))
 
 a_next = a0

 for t in range(T_x):
  a_next, yt_pred, cache = rnn_cell_forward(x[:,:,t], a_next, parameters)
  a[:, :, t] = a_next
  y_pred[:, :, t] = yt_pred

  caches.append(cache)
 
 caches = (caches, x)
 return a, y_pred, caches

这就是RNN的前向传播过程, 这样理解这个循环神经网络的计算过程为啥是一气呵成了吧, 但是这里还要注意一下, 这个和普通的全连接前向传播的循环可不一样, 这里是只有一层隐藏层, 然后这里的循环是时间步的循环, 而全连接网络那里的循环是多个隐藏层, 循环是隐藏层的循环计算, 如果不理解的话很容易就搞乱了。这里是一层的RNN, 但是有一个时间步的循环计算, 而普通的一层全连接网络,是不用循环计算的

那么这里又要看一个问题了, 我们知道全连接那分析的时候,如果层数很多, 就会出现梯度消失或者爆炸, 这是因为在反向传播的时候, 通过链式法则的推导,会用到上一层正向传播过程中的输出, 而这个输出,又依赖于前面层数的输出,这是一个连乘的计算过程, 所以如果前面某一层某个值很大或者很小的时候,就会导致后面某些层的输出很小, 这样就会导致梯度消失或者爆炸, 如果不知道我在说啥的,建议补一下深度学习基础。

而回到RNN, 其实也存在这个现象,为啥呢?因为上面说了, 一层的RNN就会有一个时间步的循环计算, 而这个时间步的长度是依赖于输入序列的长度的, 如果序列很长很长,那么这里也相当于前向传播有了一个很深的连乘运算, 则RNN的反向传播过程会随着时间序列产生长期依赖,这是因为每一步的隐态 随着时间序列在前向传播, 而 又是 的函数, 所以会有一个时间步之间隐态的一个连乘计算, 有连乘,就会出现危险, 如果不明白的话,看个计算过程就明白了, 顺便看一下RNN的反向传播:就拿一个三个时间步的RNN来看, 通过上面的分析,我们可以写一下它的前向传播过程:

假设在t=3时刻, 损失函数为

则对于一次训练任务的损失函数为 , 就是每个时间步损失函数的一个累加。那么我们开始考虑反向传播的过程, 其实就是对 求偏导, 并不断调整它们使L尽可能达到最小。

那么我们就对t3时刻的 求一下偏导:

这个我们发现,对于 求导, 并没有产生长期依赖。而下面看看对于 求偏导:

这两个就会产生一种时间序列依赖,因为 随着时间序列在前向传播, 而 又是 的函数。根据上面求偏导的过程, 可以得到任意一个时刻对 求偏导的公式:

求偏导也是同理。如果加上激活函数, , 则

这样就清晰了, tanh的导数我们知道是小于等于1的, 而这个连乘的大小其实取决于这个 , 如果 很大, 那么在求导过程中就会梯度爆炸, 如果很小,那么就会出现梯度消失, 所以这就是RNN中梯度消失或者爆炸的原因, 关键之处就是这个连乘运算。注意一下, 之前说的梯度消失,并不是说后面时刻参数更新时梯度为0, 而是说后面时刻参数更新的时候, 越往前的序列信息对更新起不到作用了。

并且我们假设有个t=20的时候看看 求偏导的公式:

, 这个其实也就是再说,如果某时刻距离当前时刻越远,  比如t=3, 也就是上面加法的后面一长串累乘到出现 的时候,因为有了这一长串累乘,很容易导致梯度消失,那么 不起作用了(因为累乘那块是0, 乘以这个梯度也是0), 这也就是说在t=20的时候,t=3时刻的输入对于t=20时参数更新 是起不到任何作用的。这就相当于RNN并没有办法捕捉这种长期的依赖关系, 只能捕捉局部的依赖关系, 比如t=20时参数的更新,可能只依赖于 这3步的输入值。

这对应着吴恩达老师讲的那个例子:The cat, which ate already, ......, was full。就是后面的was还是were, 要看前面是cat, 还是cats, 但是一旦中间的这个which 句子很长, cat的信息根本传不到was这里来。对was的更新没有任何帮助, 这是RNN一个很大的不足之处。

所以,通过上面的分析, 我们知道了RNN存在着一个很大的问题梯度消失,而RNN出现梯度消失问题之后, 就没法再捕捉序列之间的长期关联或者依赖关系

而解决上面这个问题的根本,其实就是 , 因为这个连乘, 才会有梯度消失或者爆炸现象,进而才会无法捕捉长期依赖。那么如何解决这个问题呢?  那就是让这个连乘保持一个常量, 这样的话就不会梯度消失或者爆炸了。当然RNN是做不到了, 所以LSTM就诞生了。

5.  总结

这篇基础知识的内容就整理到这里,算是预热,如果后面加上LSTM就会太多了, 所以趁热乎快速回顾一下:这篇文章就是围绕着时序序列的任务进行展开, 从全连接网络开始,复习了一下DNN的步骤和处理这种时序序列任务的局限性, 引出了RNN, 然后重点说了一下RNN的运算原理和几个细节部分, 纠正一下初学者对RNN的理解误差, 然后为了更加详细的理解RNN的计算原理,用numpy实现了一下前向传播的过程, 并有一个例子写了一下反向传播的公式, 并解释了一下为什么RNN会存在梯度消失和爆炸现象, 为什么不能捕捉长期依赖关系, 最后又分析了这两个问题的解决关键在什么地方。

而RNN的这两个问题到底是如何解决的呢? 等遇见了LSTM和GRU之后我们再来一块探索。

参考

  • 一文搞懂RNN(循环神经网络)基础篇
  • RNN梯度消失和爆炸的原因
  • 难以置信!LSTM和GRU的解析从未如此清晰(动图+视频)
  • 吴恩达老师深度学习课程

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方"AINLP",进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

欢迎加入AINLP技术交流群
进群请添加AINLP小助手微信 AINLPer(id: ainlper),备注NLP技术交流

推荐阅读

这个NLP工具,玩得根本停不下来

征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)

完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)

从数据到模型,你可能需要1篇详实的pytorch踩坑指南

如何让Bert在finetune小数据集时更“稳”一点

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,分享、点赞、在看三选一吧🙏

登录查看更多
0

相关内容

专知会员服务
46+阅读 · 2020年12月2日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
25+阅读 · 2020年8月19日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
73+阅读 · 2020年6月25日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
116+阅读 · 2019年9月24日
序列模型简介——RNN, Bidirectional RNN, LSTM, GRU
云栖社区
6+阅读 · 2019年2月10日
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
一文详解循环神经网络的基本概念(代码版)
人工智能头条
5+阅读 · 2018年4月28日
一文读懂LSTM和循环神经网络
七月在线实验室
8+阅读 · 2018年4月18日
[深度学习] 我理解的循环神经网络RNN
机器学习和数学
16+阅读 · 2017年12月2日
RNN在自然语言处理中的应用及其PyTorch实现 | 赠书
人工智能头条
6+阅读 · 2017年11月28日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Bivariate Beta LSTM
Arxiv
5+阅读 · 2019年10月7日
Arxiv
6+阅读 · 2019年7月11日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
4+阅读 · 2019年1月1日
Arxiv
3+阅读 · 2018年5月11日
Arxiv
13+阅读 · 2017年12月5日
VIP会员
相关VIP内容
专知会员服务
46+阅读 · 2020年12月2日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
25+阅读 · 2020年8月19日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
73+阅读 · 2020年6月25日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
116+阅读 · 2019年9月24日
相关资讯
序列模型简介——RNN, Bidirectional RNN, LSTM, GRU
云栖社区
6+阅读 · 2019年2月10日
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
一文详解循环神经网络的基本概念(代码版)
人工智能头条
5+阅读 · 2018年4月28日
一文读懂LSTM和循环神经网络
七月在线实验室
8+阅读 · 2018年4月18日
[深度学习] 我理解的循环神经网络RNN
机器学习和数学
16+阅读 · 2017年12月2日
RNN在自然语言处理中的应用及其PyTorch实现 | 赠书
人工智能头条
6+阅读 · 2017年11月28日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
相关论文
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Bivariate Beta LSTM
Arxiv
5+阅读 · 2019年10月7日
Arxiv
6+阅读 · 2019年7月11日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
4+阅读 · 2019年1月1日
Arxiv
3+阅读 · 2018年5月11日
Arxiv
13+阅读 · 2017年12月5日
Top
微信扫码咨询专知VIP会员