入门 | 请注意,我们要谈谈神经网络的注意机制和使用方法

2017 年 10 月 27 日 机器之心

选自GitHub

作者:Adam Kosiorek

机器之心编译

参与:Panda

神经网络中的注意机制(attention mechanism),也被称为神经注意(neural attention)或注意(attention),最近也得到了人们越来越多的关注。在本文中,作者将尝试为不同机制和用例找到共同点,此外还将描述并实现两个软视觉注意(soft visual attention)机制范例。本文作者 Adam Kosiorek 为牛津大学在读博士。


注意机制是什么?


我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络:它可以选择特定的输入。设 x∈R^d 为输入,z∈R^k 为特征向量,a∈{0,1}^k 是注意向量,g∈R^k 为 attention glimpse,fϕ(x) 为注意网络(attention network)。一般而言,注意实现为如下形式:



其中 ⊙ 是元素依次相乘。对于软注意(soft attention),其将特征与一个(软)掩模(mask)相乘,该掩模的值在 0 到 1 之间;对于硬注意(hard attention),这些值被限制为确定的 0 或 1,即 a∈{0,1}k。在后面的案例中,我们可以使用硬注意掩模来直接索引其特征向量 (用 Matlab 的表示方法),它会改变自己的维度,所以现在,其中 m≤k。


为了理解注意机制的重要性,我们必须考虑到神经网络实际上就是一个函数近似器。它近似不同类型的函数的能力取决于它的架构。典型的神经网络的实现形式是矩阵乘法构成的链式运算和元素上的非线性,其中输入的元素或特征向量只会通过加法彼此交互。


注意机制会计算一个用于对特征进行乘法运算的掩模。这种看似无关痛痒的扩展会产生重大的影响:突然之间,可以使用神经网络近似的函数空间多了很多,让全新的用例成为了可能。为什么会这样?尽管我没有证据,但直观的想法是:有一种理论认为神经网络是一种通用的函数近似器,可以近似任意函数并达到任意精度,唯一的限制是隐藏单元的数量有限。在任何实际的设置中,情况却不是:我们受限于可以使用的隐藏单元的数量。考虑以下案例:我们要近似神经网络输入的乘积。前馈神经网络只能通过使用(许多)加法(以及非线性)来模拟乘法,因此它需要大量神经网络基础。如果我们引入乘法交互,那它就会变得简单且紧凑。


如果我们放松对注意掩模的值的限制,使 a∈R^k,那么上面将注意定义为乘法交互的做法能让我们考虑更大范围的模型。比如动态过滤器网络(DFN:Dynamic Filter Networks)使用了一个过滤器生成网络,它可以基于输入而计算过滤器(即任意幅度的权重),并将它们应用于特征,这在效果上就是一种乘法交互。使用软注意机制的唯一区别是注意权重并不局限于 0 到 1 之间。在这个方向上更进一步,了解哪些交互应该是相加的、哪些应该是相乘的是非常有意思的。


论文《A Differentiable Transition Between Additive and Multiplicative Neurons》对这一概念进行了探索,参阅:https://arxiv.org/abs/1604.03736。另外,《深度 | 深度学习能力的拓展,Google Brain 讲解注意力模型和增强 RNN》这篇文章也对软注意机制进行了很好的概述。


视觉注意


注意机制可应用于任意种类的输入,不管这些输入的形态如何。在输入为矩阵值的案例中(比如图像),我们可以考虑使用视觉注意(visual attention)。设为图像,为 attention glimpse,即将注意机制应用于图像 I 所得到的结果。


硬注意


对图像的硬注意已经存在了很长时间,即图像裁剪。在概念上这非常简单,因为仅需要索引。使用 Python(或 TensorFlow),硬注意可以实现为:


  
    
    
    
  1. g = I[y:y+h, x:x+w]


上面代码的唯一问题是不可微分;为了学习得到模型的参数,比如借助分数函数估计器(score-function estimator)等方法,我之前的文章也曾简要提到过:https://goo.gl/nfPB6r


软注意


软注意最简单的形式在图像方面和向量值特征方面并无不同,还是和上面的(1)式一样。论文《Show, Attend and Tell: Neural Image Caption Generation with Visual Attention》是最早使用这种类型的注意的研究之一:https://arxiv.org/abs/1502.03044


该模型可以学习注意图像的特定部分,同时生成描述这部分的词。


但是,这种类型的软注意非常浪费计算资源。输入中变暗的部分对结果没有贡献,但仍然还是需要处理。它也过度参数化了:实现这种注意的 sigmoid 激活函数是彼此独立的。它可以同时选择多个目标,但在实际中,我们往往希望进行选择并且仅关注场景中的单个元素。下面这两个机制解决了这个问题,它们分别是由 DRAW(https://arxiv.org/abs/1502.04623)和 Spatial Transformer Networks(https://arxiv.org/abs/1506.02025)这两项研究引入的。它们也可以重新调整输入的大小,从而进一步提升性能。


高斯注意(Gaussian Attention)


高斯注意是使用参数化的一维高斯过滤器来创造图像大小的注意图(attention map)。设 





是注意向量,其分别通过 y 和 x 坐标指定了应该注意图像中的哪一部分。其注意掩模可以创建为



在上图中,上面一行表示 ax,右边一列表示 ay,中间的矩形表示得到的结果 a。这里为了可视化,向量中仅包含 0 和 1. 实际上,它们可以实现为一维的高斯向量。一般而言,高斯的数量就等于空间的维度,且每个向量都使用了 3 个参数进行参数化:第一个高斯的中心 μ、连续的高斯中心之间的距离 d 和这些高斯的标准差 σ。使用这种参数化,注意和 glimpse 在注意的参数方面都是可微分的,因此很容易学习。


上面形式的注意仍然很浪费,因为它只选择了图像的一部分,同时遮挡了图像的其它部分。我们可以不直接使用这些向量,而是将它们分别投射进 





中。现在,每个矩阵的每一行都有一个高斯,参数 d 指定了连续行中的高斯中心之间的距离(以列为单位)。现在可以将 glimpse 实现为:




我最近一篇关于使用带有注意机制的 RNN 进行生物启发式目标跟踪的论文 HART 中就使用了这种机制,参阅:https://arxiv.org/abs/1706.09262。这里给出一个例子,下面左图是输入图像,右图是 attention glimpse;这个 glimpse 给出了主图中绿色标记出的框。



下面的代码可以让你在 TensorFlow 中为某个 minibatch 样本创建一个上述的带有矩阵值的掩模。如果你想创造 Ay,你可以这样调用:Ay = gaussian_mask(u, s, d, h, H),其中 u、s、d 即为 μ、σ、d,以这样的顺序并在像素中指定。


  
    
    
    
  1. def gaussian_mask(u, s, d, R, C):

  2.    """

  3.    :param u: tf.Tensor, centre of the first Gaussian.

  4.    :param s: tf.Tensor, standard deviation of Gaussians.

  5.    :param d: tf.Tensor, shift between Gaussian centres.

  6.    :param R: int, number of rows in the mask, there is one Gaussian per row.

  7.    :param C: int, number of columns in the mask.

  8.    """

  9.    # indices to create centres

  10.    R = tf.to_float(tf.reshape(tf.range(R), (1, 1, R)))

  11.    C = tf.to_float(tf.reshape(tf.range(C), (1, C, 1)))

  12.    centres = u[np.newaxis, :, np.newaxis] + R * d

  13.    column_centres = C - centres

  14.    mask = tf.exp(-.5 * tf.square(column_centres / s))

  15.    # we add eps for numerical stability

  16.    normalised_mask = mask / (tf.reduce_sum(mask, 1, keep_dims=True) + 1e-8)

  17.    return normalised_mask


我们也可以写一个函数来直接从图像中提取 glimpse:


  
    
    
    
  1. def gaussian_glimpse(img_tensor, transform_params, crop_size):

  2.    """

  3.    :param img_tensor: tf.Tensor of size (batch_size, Height, Width, channels)

  4.    :param transform_params: tf.Tensor of size (batch_size, 6), where params are  (mean_y, std_y, d_y, mean_x, std_x, d_x) specified in pixels.

  5.    :param crop_size): tuple of 2 ints, size of the resulting crop

  6.    """

  7.    # parse arguments

  8.    h, w = crop_size

  9.    H, W = img_tensor.shape.as_list()[1:3]

  10.    split_ax = transform_params.shape.ndims -1

  11.    uy, sy, dy, ux, sx, dx = tf.split(transform_params, 6, split_ax)

  12.    # create Gaussian masks, one for each axis

  13.    Ay = gaussian_mask(uy, sy, dy, h, H)

  14.    Ax = gaussian_mask(ux, sx, dx, w, W)

  15.    # extract glimpse

  16.    glimpse = tf.matmul(tf.matmul(Ay, img_tensor, adjoint_a=True), Ax)

  17.    return glimpse


空间变换器(Spatial Transformer)


空间变换器(STN)可以实现更加一般化的变换,而不仅仅是可微分的图像裁剪,但图像裁剪也是其可能的用例之一。它由两个组件构成:一个网格生成器和一个采样器。这个网格生成器会指定一个点构成的网格以用于采样,而采样器的工作当然就是采样。使用 DeepMind 最近发布的一个神经网络库 Sonnet,可以很轻松地在 TensorFlow 中实现它。Sonnet 地址:https://github.com/deepmind/sonnet


  
    
    
    
  1. def spatial_transformer(img_tensor, transform_params, crop_size):

  2.    """

  3.    :param img_tensor: tf.Tensor of size (batch_size, Height, Width, channels)

  4.    :param transform_params: tf.Tensor of size (batch_size, 4), where params are  (scale_y, shift_y, scale_x, shift_x)

  5.    :param crop_size): tuple of 2 ints, size of the resulting crop

  6.    """

  7.    constraints = snt.AffineWarpConstraints.no_shear_2d()

  8.    img_size = img_tensor.shape.as_list()[1:]

  9.    warper = snt.AffineGridWarper(img_size, crop_size, constraints)

  10.    grid_coords = warper(transform_params)

  11.    glimpse = snt.resampler(img_tensor[..., tf.newaxis], grid_coords)

  12.    return glimpse


高斯注意 vs. 空间变换器


高斯注意和空间变换器可以实现非常相似的行为。我们该选择使用哪一个呢?这两者之间有一些细微的差别:


  • 高斯注意是一种过度参数化的裁剪机制:需要 6 个参数,但却只有 4 个自由度(y、x、高度、宽度)。STN 只需要 4 个参数。

  • 我还没运行过任何测试,但 STN 应该更快。它依赖于在采样点上的线性插值法,而高斯注意则必须执行两个巨大的矩阵乘法运算。STN 应该可以快上一个数量级(在输入图像中的像素方面)。

  • 高斯注意应该更容易训练(没有测试运行)。这是因为结果得到的 glimpse 中的每个像素都可以是源图像的相对大批量的像素的凸组合,这使得我们能更容易找到任何错误的原因。而 STN 依赖于线性插值法,这意味着每个采样点的梯度仅相对其最近的两个像素是非 0 的。


你可以在这里查看代码示例:https://github.com/akosiorek/akosiorek.github.io/tree/master/notebooks/attention_glimpse.ipynb


一个简单的范例


让我们来创建一个简单的高斯注意和 STN 范例。首先,我们需要载入一些库,定义尺寸,创建并裁剪输入图片。


  
    
    
    
  1. import tensorflow as tf

  2. import sonnet as snt

  3. import numpy as np

  4. import matplotlib.pyplot as plt

  5. img_size = 10, 10

  6. glimpse_size = 5, 5

  7. # Create a random image with a square

  8. x = abs(np.random.randn(1, *img_size)) * .3

  9. x[0, 3:6, 3:6] = 1

  10. crop = x[0, 2:7, 2:7] # contains the square


随后,我们需要 TensorFlow 变量的占位符。


  
    
    
    
  1. tf.reset_default_graph()

  2. # placeholders

  3. tx = tf.placeholder(tf.float32, x.shape, 'image')

  4. tu = tf.placeholder(tf.float32, [1], 'u')

  5. ts = tf.placeholder(tf.float32, [1], 's')

  6. td = tf.placeholder(tf.float32, [1], 'd')

  7. stn_params = tf.placeholder(tf.float32, [1, 4], 'stn_params')


我们现在可以定义高斯注意和 STN 在 Tensorflow 上的简单表达式。


  
    
    
    
  1. # Gaussian Attention

  2. gaussian_att_params = tf.concat([tu, ts, td, tu, ts, td], -1)

  3. gaussian_glimpse_expr = gaussian_glimpse(tx, gaussian_att_params, glimpse_size)

  4. # Spatial Transformer

  5. stn_glimpse_expr = spatial_transformer(tx, stn_params, glimpse_size)


运行这些表达式并绘制它们:


  
    
    
    
  1. sess = tf.Session()

  2. # extract a Gaussian glimpse

  3. u = 2

  4. s = .5

  5. d = 1

  6. u, s, d = (np.asarray([i]) for i in (u, s, d))

  7. gaussian_crop = sess.run(gaussian_glimpse_expr, feed_dict={tx: x, tu: u, ts: s, td: d})

  8. # extract STN glimpse

  9. transform = [.4, -.1, .4, -.1]

  10. transform = np.asarray(transform).reshape((1, 4))

  11. stn_crop = sess.run(stn_glimpse_expr, {tx: x, stn_params: transform})

  12. # plots

  13. fig, axes = plt.subplots(1, 4, figsize=(12, 3))

  14. titles = ['Input Image', 'Crop', 'Gaussian Att', 'STN']

  15. imgs = [x, crop, gaussian_crop, stn_crop]

  16. for ax, title, img in zip(axes, titles, imgs):

  17.    ax.imshow(img.squeeze(), cmap='gray', vmin=0., vmax=1.)

  18.    ax.set_title(title)

  19.    ax.xaxis.set_visible(False)

  20.    ax.yaxis.set_visible(False)



以上代码也在 Jupyter Notebook 上:https://github.com/akosiorek/akosiorek.github.io/blob/master/notebooks/attention_glimpse.ipynb


结语


注意机制能够扩展神经网络的能力:它们允许近似更加复杂的函数,用更直观的话说就是能关注输入的特定部分。它们已经帮助提升了自然语言处理的基准表现,也带来了图像描述、记忆网络寻址和神经编程器等全新能力。


我相信注意机制最重要的用例还尚未被发现。比如,我们知道视频中的目标是连续连贯的,它们不会在帧切换时凭空消失。注意机制可以用于表达这种连贯性的先验知识。具体怎么做?请拭目以待。 


原文链接:http://akosiorek.github.io/ml/2017/10/14/visual-attention.html



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

登录查看更多
6

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【新书册】贝叶斯神经网络,41页pdf
专知会员服务
177+阅读 · 2020年6月3日
【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
12+阅读 · 2020年6月2日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
深度学习算法与架构回顾
专知会员服务
81+阅读 · 2019年10月20日
激活函数还是有一点意思的!
计算机视觉战队
12+阅读 · 2019年6月28日
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
入门 | 什么是自注意力机制?
机器之心
17+阅读 · 2018年8月19日
卷积网络背后的直觉
论智
4+阅读 · 2018年5月31日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
【干货】深入理解自编码器(附代码实现)
小白都能看懂的神经网络入门,快收下吧~
码农翻身
3+阅读 · 2018年1月4日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Multi-Grained Named Entity Recognition
Arxiv
6+阅读 · 2019年6月20日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
相关VIP内容
相关资讯
激活函数还是有一点意思的!
计算机视觉战队
12+阅读 · 2019年6月28日
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
入门 | 什么是自注意力机制?
机器之心
17+阅读 · 2018年8月19日
卷积网络背后的直觉
论智
4+阅读 · 2018年5月31日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
【干货】深入理解自编码器(附代码实现)
小白都能看懂的神经网络入门,快收下吧~
码农翻身
3+阅读 · 2018年1月4日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
相关论文
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Multi-Grained Named Entity Recognition
Arxiv
6+阅读 · 2019年6月20日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年4月18日
Top
微信扫码咨询专知VIP会员