CMU & Facebook论文解读 | 非局部神经网络(附代码实现)

2018 年 2 月 12 日 极市平台 罗雅丹
↑ 点击蓝字关注极市平台 识别先机 创造未来


来源:Paperweekly


本期推荐的论文笔记来自 PaperWeekly 社区用户 @Yadan。本文受 NL-Means 在图像去噪应用中的启发,采用非局部均值方法来处理局部特征与全图特征点的关系。这种非局部神经网络可以很方便地嵌入现有视觉模型中,提高图像及视频分类精度。


关于作者:罗雅丹,昆士兰大学博士生,研究方向为计算机视觉。

■ 论文 | Non-local Neural Networks

■ 链接 | https://www.paperweekly.site/papers/1191

■ 源码 | https://github.com/AlexHex7/Non-local_pytorch

■ 源码 | https://github.com/titu1994/keras-non-local-nets


论文动机

“Non-local”直译为“非局部”。个人的理解是指特征提取时,当前输入数据的特征计算要考虑其它输入数据的信息。举例来说,非局部操作的关注点就是在于如何建立起图像上两个有一定距离的像素之间的联系,如何建立视频里两帧的联系,如何建立一段话中不同词的联系。 


一个典型的 CNN 网络是由一系列卷积操作累积起来的。对于使用在图像上的 CNN,每个卷积操作只能捕捉到输入数据的局部信息。整个网络通过局部操作的逐步累积来获得范围较广的信息提取。而 RNN 则是通过循环的方式处理序列输入(如视频每一帧图像的时间序列或者图片上一列像素的空间序列),从而融合非局部的信息。 


这篇文章提出三点 CNN 和 RNN 在融合非局部信息上的三个劣势:1. 计算不高效;2. 优化更难;3. 非局部特征的信息传递不够灵活,功能不够强大。当然,这也是因为 CNN 和 RNN 的初衷并不是专门来融合非局部信息的。 


在这篇文章中,作者提出了一种非局部模块(non-local block,简称 NL block)的网络结构,来帮助深度网络更好地融合非局部的信息。这对于一些问题是非常重要的。



方法

从使用在图像去噪问题中的 non-local means [1] 方法出发,作者对 NL block 的抽象描述为:



以图像为背景来说的话,i,j 是像素坐标,x,y 是输入和输出信息。j 的取值范围是任意的坐标。C(x) 是一个归一化常数。f(.) 是用来构建 i,j 点处信息关联的二输入函数。g(.) 是计算j 点信息对 i 点影响的单输入函数。 


这样的非局部操作其实很常见,从广义的角度来讲可以从多个已有的研究方向来理解这个操作。


首先这是从图像去噪中借鉴来的模型。除此之外,如果 f(.) 函数输出的是一个概率值,即 0~1 之间的数值,那么这就是前段时间有所讨论的 self-attention [2]。因为 (i,j) 二元坐标对取遍了所有情况,这个定义又很像 dense CRF [3],或者可以认为这也是一种图模型。 


回到这篇文章中。作者对 f(.) 有很多不同选择的定义方式。通过实验选定了名为 Embedded Gaussain+Dot product 的方案。对 g(.) 的定义是一个简单的线性函数。NL block 的输出并没有替代输入,而是和原输入相加,形成一个残差结构(residual),得到 Zi。





其中 W 均为待学习的参数,可以将其视为 1x1 卷积的参数。若,那么就是二阶的 softmax,即 CRF。 


f(.) 中所做的点积不同于 style transfer 中的协方差或者 bilinear 操作。后两者是把不同通道的特征图两两内积,空间信息完全抛弃,得到的结果是通道数 x 通道数大小的协方差矩阵。f(.) 的操作是每个点的特征向量(通道个数的维度)进行内积,空间信息保留了下来,输出还是 HxW 大小。 


整个 NL block 也可以从结构图来理解:



图中 T,H,W 代表输入特征的维度。其中 T 是对于视频数据的帧数,对于分割或检测任务,T=1。


这里面作者还提到了一些小 trick 可以进一步压缩计算量。比如 1x1 的卷积压缩输出通道数,形成一个瓶颈结构(bottleneck)。或者在 f(.) 对应的 1x1 卷积之后使用 pooling 来减小 H,W,即采样一部分的 j ,而不是所有的 j 进行信息融合。 


可以看到,NL block 可以用作网络设计中的一个补充结构插入到 CNN 中任意的一层之后。因为使用的是 1x1 卷积,因此对输入特征没有尺寸限制。同时整个操作计算量相对较小,额外参数量也很少。


实验

作者在视频分类、物体检测、物体实例分割这些很需要非局部信息关联的任务上进行了实验。




其中在 Kinetics 数据集上进行了 ablation study,来仔细研究 NL block 各个细节的有效性。结果表格不再赘述,得到的结论总结如下: 


NL block 中 f(.) 不同的定义方式各有千秋,但是为了更好化可视化使用 embedded Gaussian+dot product,即上文提到的公式所示的方法。 


NL block 放入网络主干的位置:放在浅层好,高层提升作用下降。


NL block 变深的作用:对于主干网络较浅的网络,加深 NL block 能够提升性能。对于较大较深的网络,无论是增加 NL block 还是继续加深主干网络的深度都很难再提升性能。


对视频任务,NL block 同时作用于时空比单独作用于时间域或空间域要好。与 C3D 比较:比 C3D 又快又好。


在 COCO 数据库上的实验结果如下所示。鉴于 NL block 结构的易用性,在平时设计网络时可以考虑添加这样的模块。



参考文献

[1] A. Buades, B. Coll, and J.-M. Morel. A non-local algorithm for image denoising. In Computer Vision and Pattern Recognition (CVPR), 2005. 

[2] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin. Attention is all you need. In Neural Information Processing Systems (NIPS), 2017. 

[3] P. Krahenbuhl and V. Koltun. Efficient inference in fully connected crfs with gaussian edge potentials. In Neural Information Processing Systems (NIPS), 2011.


*推荐文章*




加入极市Email List (http://extremevision.mikecrm.com/pdKKGSx,获取极市最新项目需求,以及前沿视觉资讯等。

登录查看更多
5

相关内容

【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
必读的7篇IJCAI 2019【图神经网络(GNN)】相关论文-Part2
专知会员服务
58+阅读 · 2020年1月10日
CMU博士论文:可微优化机器学习建模
专知会员服务
52+阅读 · 2019年10月26日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
100行Python代码,轻松搞定神经网络
大数据文摘
4+阅读 · 2019年5月2日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
CVPR 2018 论文解读(部分)
计算机视觉战队
5+阅读 · 2018年5月8日
快醒醒,一大波最新 AI 论文加开源代码来袭!
PaperWeekly
3+阅读 · 2018年4月19日
论文解读 | 基于神经网络的知识推理
PaperWeekly
5+阅读 · 2018年3月8日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
5+阅读 · 2018年10月23日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
Arxiv
3+阅读 · 2018年5月28日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关资讯
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
100行Python代码,轻松搞定神经网络
大数据文摘
4+阅读 · 2019年5月2日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
CVPR 2018 论文解读(部分)
计算机视觉战队
5+阅读 · 2018年5月8日
快醒醒,一大波最新 AI 论文加开源代码来袭!
PaperWeekly
3+阅读 · 2018年4月19日
论文解读 | 基于神经网络的知识推理
PaperWeekly
5+阅读 · 2018年3月8日
相关论文
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
5+阅读 · 2018年10月23日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
Arxiv
3+阅读 · 2018年5月28日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员