ICCV 2019 Oral论文:KAUST提出大幅加深图卷积网络的新方法

2019 年 7 月 31 日 机器之心

机器之心发布

论文作者:Guohao Li, Matthias Müller, Ali Thabet, Bernard Ghanem

来源:将门计算机视觉群 编译T.R.

不久之前,ICCV 2019 接收论文结果公布。本文介绍了来自阿卜杜拉国王科技大学一篇 Oral 论文。研究人员在 CNN 结构的启发下在图卷积网络中利用残差、稠密连接和膨胀卷积等结构成功将 GCN 的深度拓展到了 56 层,在增强模型训练稳定性的基础上大幅度提高了图卷积网络的性能。


图卷积网络 (GCN) 在处理非规则数据的过程中具有 CNN 无法比拟的优势,但目前的图卷积网络规模较小,在加深深度的过程中由于梯度消失 (Vanishing Gradient) 和过度平滑 (Over Smoothing) 问题限制图卷积网络的进一步发展。


为了探索图卷积网络深度拓展的潜力,来自阿卜杜拉国王科技大学的研究人员在 CNN 结构的启发下在图卷积网络中利用残差、稠密连接和膨胀卷积等结构成功将 GCN 的深度拓展到了 56 层,在增强模型训练稳定性的基础上大幅度提高了图卷积网络的性能。


论文一作李国豪表示,「目前常见的图卷积神经网络一般都是 3、4 层,我们关注的问题是图卷积神经网络 GCN/GNN 是否也能和一般的卷积神经网络 CNN 一样加深到 50+层而不会有 Vanishing Gradient 问题,我们提出了 ResGCNs,DenseGCNs 和 Dilated GCN,MRGCN 等结构,甚至能训练收敛 152 层 GCN,并在点云分割任务上取得了比较好的效果。」


论文链接:https://arxiv.org/pdf/1904.03751.pdf


图卷积网络


图卷积网络对于真实世界中广泛存在的非欧几里得数据具有强大的优势,它可以处理庞大的社交网络数据,通过将社交网络等效为图来分析人与人之间的关系,也可以通过图的方式来为化学分子结构建模助力新药研发,同时还可以精确地构建用户的交互模式以提升推荐系统的精度与效率,此外在语言处理、复杂的词句关系中都有着广泛的应用。


对于计算机视觉来说,图卷积网络对于场景中各部分的语义关系建模也十分有效,图卷积网络在对于点云的处理方面也涌现了一系列优秀的工作。例如在点云分割和提升深度的探索上研究人员们都进行了一系列探索,但研究发现较深的图卷积网络会引起过度平滑 (over-smoothing) 的结果,使得局域特征都收敛到相同的值上;此外随着网络的加深还会带来较高的计算复杂度和以及常见的梯度消失问题。


梯度消失、感受野较小、计算复杂度较高…这一系列问题似乎很熟悉?在卷积神经网络发展的初期,人们也面临着相同的问题!


那么是不是可以借鉴 CNN 的发展经验来解决 GCN 所面临的问题呢?研究人员通过残差、稠密连接和膨胀卷积等新的 GCN 结构给出了肯定的答案。


深度图卷积网络


图卷积网络通过聚合顶点领域的特征来实现高层信息的抽取。在图网络中,通过与每个顶点相连的特征矢量来表示顶点,整个图就通过衔接这些所有顶点的特征来表达。下面的公式代表了图网络的一般表达形式:



其中 Gl,Gl+1 代表了第 l 层图网络的输入和输出,图卷积操作 F 包含了聚合操作与更新操作,其中聚合操作用于从邻域的顶点中编码信息,而更新操作则用于将聚合后的信息进行非线性变化以计算出新的表达。


这些函数的实现由多种形式,为了突出研究重点研究人员选用了简单的最大池化作为聚合操作函数,多层感知机作为更新函数以便对抽取的特征进行非线性变换。


此外,为了进一步提高模型的表达能力,动态图卷积也是十分必要的。在研究中利用 k-NN 在每一层图卷积层都对顶点间的边进行了重计算来动态改变感受野,同时也有利于缓解较深的网络带来过度平滑的问题。


三管齐下有效加深 GCN


为了加深图网络的深度提升模型的表达能力,研究人员在 ResNet,DenseNet 和膨胀卷积的启发下对 GCN 进行了一系列改进升级,提出了深度更深、更加稳定、表现更好的图网络。下面让我们来看看他们是如何将这三种技术引入图网络中的。


ResGCN


通常的图卷积网络方法将一个图作为输入,通过映射函数 F 得到新的图表示。而研究人员则提出一个新的函数 H 来映射输入图网络与目标网络间的残差:



在通常 GCN 的基础上,研究人员为每一层增加了残差链接,这些链接将为信息和梯度的传输提供了额外的连接通道,将有效解决梯度消失的问题。



DenseGCN


稠密的连接提供了一种更为高效特征共享方式和信息流动通道,研究人员在 DenseNet 的启发下为每层图卷积衔接了先前所有中间层的信息。下面的公式中可以看出每一层的卷积中包含了一直到输入层的信息流。




这种方法将有效的融合多级别的特征,为梯度的流动提供了良好的通道,进一步促进特征的复用,缓解梯度消失问题。



膨胀卷积


图像领域的研究表明,膨胀卷积 (Dilated Aggregation) 可以在不损失分辨率的情况下有效扩大模型感受野,研究人员通过 k-NN 的方式来寻找每一层 GCN 后需要膨胀的邻域,并构建了膨胀的图结构。例如针对一个膨胀率为 d 的图,k-NN 会在输入图中每隔 d 个相邻节点来构建 k*d 的计算区域并返回 k-NN 结果。



模型架构


在三种新模块的加持下,研究人员构建了下图所示的新型深度图卷积网络结构。整个结构主要包含了图卷积主干网络、特征融合模块和多层感知器预测模块三个主要的部分。



其中主干网络用于抽取输入数据的特征。在实验过程中研究人员利用了 ResGCN 和 DenseGCN 来构建主干网络;随后利用与 PointNet 和 EdgeConv 相同的方法构建了融合模块,对全局和局部特征进行了有效融合;最后利用多层感知机模块对融合后的特征进行处理,针对特定的任务进行处理。


实验过程中使用点云分割任务进行验证,主干网络对输入 4096 个点进行处理抽取了包含 4096 个顶点的图特征;随后利用 1*1 的卷积、池化对特征进行处理,并对全局与局部特征融合,最后利用 1*1 卷积实现的多层感知机对所有的点进行分类实现点云分割。


研究人员首先实现了 ResGCN28 作为深度图卷积的基础网络,其中包含了 28 层结构,包含了残差图连接和膨胀卷积。实验结果在 mIOU 上比目前的结果提升了 4%。




随后研究人员在 S3DIS 数据集上以 RecGCN28 作为基准,对网络的结构、参数进行了一系列改进。通过使用稠密连接、动态 k-NN 和不同的通道数与深度来分析模型的性能变化,下表总结了各种变体与基准模型的对比。



研究人员发现简易实现的稠密连接对于显存的消耗十分巨大,残差连接对于实际应用更加现实。消融性分析更多地针对于残差连接的网络展开。


在上表中可以看到膨胀卷积所决定的感受野在性能上贡献了 3%,能更好地与残差链接协同工作。而当 k-NN 的邻域大小变为原来的 1/2 和 1/4 时,性能下降了 2.5% 和 3.3%,这意味着较大的感受野有利于模型性能的提升,但这一提升需要建立在模型有充分容量基础上。如果增加邻域的同时减小核的数量就会造成较大的性能损失。


我们还可以看到更深更宽的模型可以提升网络的性能,这很大程度上意味着模型容量的增加和表达的抽取更为有效,但更深的模型需要在残差和膨胀卷积的配合下才能有效提升。


为了更清晰地展示各种部件对于网络的影响,研究人员还做出了下面的柱状图对各种因素进行了分析。



另外,研究人员结合 GraphSAGE 和 EdgeConv 的优点提出了更加高效的图卷积模型 MRGCN。



最后一起来看看这种方法在数据集上取得的效果吧,最右边两列是本文提出模型的结果,与没有残差或稠密连接的模型相比显著提高了语义分割的效果:



如果想要了解详细信息,可以这一项目的网站:https://sites.google.com/view/deep-gcns,也可以下载代码上手学习一番:https://github.com/lightaime/deep_gcns。


ref:

https://sites.google.com/view/deep-gcns

https://arxiv.org/abs/1904.03751

https://github.com/WangYueFt/dgcnn

https://github.com/charlesq34/pointnet

https://en.wikipedia.org/wiki/Non-Euclidean_geometry

https://www.zhihu.com/question/54149221

https://dribbble.com/shots/4191976-Icon-illustration-2


实验室 KAUST IVUL(Image and Video Understanding Lab)组每年都有若干的访问学生、硕士、博士名额,均为全奖待遇丰厚,更有博士后/scientist 名额虚位以待!


特别欢迎有相关研究经验感兴趣来读硕博的同学把简历发到邮箱:lightaime@gmail.com;了解更多可以关注实验室主页:https://ivul.kaust.edu.sa/Pages/Home.aspx



本文为机器之心发布,转载请联系原公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

登录查看更多
0

相关内容

图卷积网络(简称GCN),由Thomas Kpif于2017年在论文Semi-supervised classification with graph convolutional networks中提出。它为图(graph)结构数据的处理提供了一个崭新的思路,将深度学习中常用于图像的卷积神经网络应用到图数据上。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
近期必读的5篇AI顶会CVPR 2020 GNN (图神经网络) 相关论文
专知会员服务
78+阅读 · 2020年3月3日
近期必读的5篇 CVPR 2019【图卷积网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
【CVPR2018】物体检测中的结构推理网络
深度学习大讲堂
6+阅读 · 2018年7月30日
Arxiv
3+阅读 · 2019年3月15日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关VIP内容
相关资讯
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
【CVPR2018】物体检测中的结构推理网络
深度学习大讲堂
6+阅读 · 2018年7月30日
Top
微信扫码咨询专知VIP会员