Graph convolutional networks (GCNs) are widely used in graph-based applications such as graph classification and segmentation. However, current GCNs have limitations on implementation such as network architectures due to their irregular inputs. In contrast, convolutional neural networks (CNNs) are capable of extracting rich features from large-scale input data, but they do not support general graph inputs. To bridge the gap between GCNs and CNNs, in this paper we study the problem of how to effectively and efficiently map general graphs to 2D grids that CNNs can be directly applied to, while preserving graph topology as much as possible. We therefore propose two novel graph-to-grid mapping schemes, namely, {\em graph-preserving grid layout (GPGL)} and its extension {\em Hierarchical GPGL (H-GPGL)} for computational efficiency. We formulate the GPGL problem as integer programming and further propose an approximate yet efficient solver based on a penalized Kamada-Kawai method, a well-known optimization algorithm in 2D graph drawing. We propose a novel vertex separation penalty that encourages graph vertices to lay on the grid without any overlap. Along with this image representation, even extra 2D maxpooling layers contribute to the PointNet, a widely applied point-based neural network. We demonstrate the empirical success of GPGL on general graph classification with small graphs and H-GPGL on 3D point cloud segmentation with large graphs, based on 2D CNNs including VGG16, ResNet50 and multi-scale maxout (MSM) CNN.


翻译:图表相形网络(GCNs)被广泛用于图形化应用程序,如图解分类和分割。然而,当前的GCNs由于不规则投入,对网络结构等网络结构等网络结构的执行有局限性。相比之下,进动神经网络(CNNs)能够从大规模输入数据中提取丰富的特征,但并不支持一般图形输入。为了缩小GCNs和CNNs之间的差距,我们在本文件中研究如何有效和高效地将普通图形映射到CNNs可以直接应用的2GGG网格,同时尽可能保存图表表层。因此,我们提出了两种新的图表至电网绘图计划,即: ~em图形保存网布局(GPGL)}及其扩展版 ~em 高级GPGL(H-GGL) 用于计算效率。我们将GGPL问题描述为整数编程程序,并进一步提出基于受罚的 Kamada-Kawai 方法的近似但有效的解答器,在2D 图表绘制中广为人知的优化算。我们提议在2GR-GRMSal-GMSeral 平面图上与GGLSeralalSeral Cal Calalalalalalals 上采用新的Galusalusalalalusalusalus 。我们提议了一个新的的GPalusalus 上,在GPalusalus 上,在GPalus ex 一级平面平面平面图,在Galbal 上鼓励以普通平面图的平面图的平面图上的任何平面图,在GPeralusalusalbusalbusalusalbusaldaldalbalus。

0
下载
关闭预览

相关内容

专知会员服务
71+阅读 · 2021年5月28日
一份简单《图神经网络》教程,28页ppt
专知会员服务
122+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras实例:PointNet点云分类
专知
6+阅读 · 2020年5月30日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Simplifying Graph Convolutional Networks
Arxiv
12+阅读 · 2019年2月19日
Arxiv
12+阅读 · 2018年9月15日
Arxiv
3+阅读 · 2018年8月12日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
Keras实例:PointNet点云分类
专知
6+阅读 · 2020年5月30日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
相关论文
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Simplifying Graph Convolutional Networks
Arxiv
12+阅读 · 2019年2月19日
Arxiv
12+阅读 · 2018年9月15日
Arxiv
3+阅读 · 2018年8月12日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员