推荐一个交互式学习GNN的免费网站!

2021 年 11 月 17 日 图与推荐

推荐一个交互式学习GNN的免费网站!https://distill.pub/2021/gnn-intro/

在这篇博客中,很多图都是交互图,可以由读者自行操作演示。例如下图中GNN层数,维度等等的设置均可以自行选择,展示也会随之变化,非常形象~

下面这幅图是本文的开篇之图:

在上图 中,每一层都是一层网络,每一层的节点都受到下一层中自身节点和邻居节点的影响。 如果网络比较深,是可以处理到一幅图中较大范围的节点。

下文是结合上述博客介绍和李沐老师的论文精读总结出来的。第一次看distill的文章,让我实在是很惊喜,李沐老师将在最后的评价部分评价distill的文章。个人认为【GCN作为子图函数近似】这一部分讲到了GNN的核心思想,至少这一部分是我对GNN的理解。

李沐老师论文精读视频:

新手友好!李沐大神の图神经网络1h入门

1 前言


图神经网络在应用上还只是起步阶段,应用领域有药物发现、物理模拟、虚假新闻检测、车流量预测、推荐系统等。这篇文章是探索和解释现代图神经网络,第一部分是什么样的数据能表示成一张图,第二部分是图和别的数据有什么不同,第三部分是构建GNN的模块,第四部分是搭建一个GNN的playground(说明作者非常用心!是花了很多心思在上面,值得我们去玩玩)。

2 什么是图?


首先建立一个图。图表示的是一系列实体(节点)之间的关系(边)。

  • V:节点信息(节点标识、节点邻居数)

  • E:节点信息(边标识、边权重)

  • U:全局信息(节点数、最长路径)

(这篇博客的重点是如上的交互图,文字更多的是描述交互图想表达的意思)

为了深入表示每个节点、边和整个图,我们可以用如下的存储方式:


把节点信息、边信息和全局信息做embedding,通俗地说就是把这些信息存储为向量的形式。 所以 图神经的核心步骤就是,怎么样把我们想要的信息表示成向量,以及向量是否能通过数据学习到。


我们把图的边分为无向边和有向边,比如朋友关系无方向,而b站上的关注可能是单向的。

以下是几种图表示的例子:

  • images as graphs(将图片表示为图)

通常把图片表示为三维tensor,如224x224x3(学过CNN的同学就知道这里的三通道是指RGB三种颜色)。实际上我们可以把每个像素作为一个点,存在邻接关系则形成一条边。
中间的就是邻接矩阵,相邻则是1,不相邻则是0,一般会是非常大的稀疏矩阵。
  • text as graphs(将文本表示为图)

文本是一个序列,把词表示为顶点,词与词存在有向边。
  • Molecules as graphs(将分子结构图表示为图)

上面其实是图能在CV和NLP中做的事儿,实际上不局限于此,图可以应用在生活的各个领域。


  • Social networks as graphs(将社交网络表示为图)

Othello:奥赛德剧中出现人物的社交网络情况,有边代表两个人同时出现过。
Karate:空手道俱乐部数据集,大概意思是存在两个老师带队的团体。


  • Citation networks as graph(将引用网络表示为图)

文章之间的引用,会生成一条边,但是往往都是有向边,因为是新文章引用旧文章,双向引用就不太现实了。
下面是真实世界的数据集,需要注意的是:qm9数据集中包含134k张小图,每个图仅仅9个节点以内,Cora数据集为有向图,Wikipedia links节点数和边数非常大,最大的节点指向了100万个文章(网页),可能是一张大的索引页。
图中三大层面的问题
  • 图级别(Graph-level task)

给定一张图,对该图进行分类。
如上图 ,预测出哪些分子是具有两个环的。 这个例子比较简单,可以用图的遍历来完成,当图非常复杂的时候,图神经网络可以发挥巨大作用。
  • 节点级别(Node-level task)


上图是空手道俱乐部数据集,将学员分类到两个老师的队伍中。
  • 边级别(Edge-level task)



边的预测(链路预测)的例子是通过语义分割把人物、背景拿出来,然后分析实体间的关系(属性)。 比如黄衣服的人在踢绿衣服的人,他们都站在地毯上。


在图上使用机器学习的挑战是什么?

需要的是节点、边、全局信息、连接性四种类型的信息来做预测。

连接性是用邻接矩阵来存储,如果图非常大,比如Wikipedia,则存储不下来。由于是邻接矩阵很稀疏,所以用稀疏矩阵来存储会更好,而稀疏矩阵在GPU上训练一直是个技术难题。

邻接矩阵任意交换行列,会导致邻接矩阵改变,他们其实节点关系不变,文章给出了下面这个例子(动态图)表示不同样子的邻接矩阵都形成了连接性相同的图,而他们都是异构的。

那么想要 存储高效且不受排序的影响 应该如何存储呢?


上图中的节点、边和全局信息都可以用向量表示,而不一定只是标量。这个adjacency list能够用节点id把边的连接关系表示出来。

3 图神经网络


介绍完图的背景后,现在开始介绍图神经网络(GNNs)。

什么是GNNs?是对图上所有属性进行可以优化的变换,变换能保持图的对称信息(节点重新排序后,结果不变)。message passing neural network是一种GNNs的框架,当然GNN是可以用别的方式构建。

GNNs是“graph-in, graph-out”(即进出模型都是graph的数据结构),他会对节点、边的信息进行变换,但是图连接性是不变的。

首先,对节点向量、边向量、全局向量分别构建一个MLP(多层感知机),MLP的输入输出的大小相同。

三个MLP组成GNN的一层,一个图经过MLP后仍然是一个图。对于顶点、边、全局向量分别找到对应的MLP,作为其更新函数(update function)。可以看到,输出后图的属性变化了,但是图的结构没有改变,符合我们的需求。MLP对每个向量独自作用,不会影响的连接性。堆叠了多层上述的模型后得到了GNN,现在来到最后一层,对节点进行预测。

上图可以看到,经过GNN的最后一层,得到的也是一个图,然后在图后面接一个全连接层(分类的话神经元数量则是类别数,再套一个softmax,回归的话神经元数量则是1),所有节点共享一个全连接层。

考虑另一种情况,如果说某个节点是没有自己的属性(向量)的,应该怎么做?这里介绍到pooling的方法。

做法就是把节点相连的边向量拿出来,全局向量拿出来,然后将这些向量相加求和,最后经过一个节点共享的输出层得到节点预测结果。


假如没有边向量而只有节点的向量,则汇聚相连的节点的向量,如下图所示:


那如果没有全局向量,只有节点向量呢?就把全部的节点向量汇聚起来,经过最后的输出层得到全局的输出。



以,不管缺哪类属性,我们都可以通过汇聚这个操作,得到最终的输出值。下图则是GNN流程的描述。



如上模型的局限性是很明显的,并没有用到图的结构,仅仅是点、边向量分别做MLP的过程。

信息传递(passing message between parts of the graph)

在更新某个节点的向量时,会将自己的向量和邻居节点的向量进行聚合操作,然后再传入MLP更新节点的向量。作者说这个过程和标准卷积相似,但其实不完全是。下图则是GCN的架构涉及,通过聚集邻居节点来更新节点的表达。



学习边的表示(Learning edge representations)

下图是信息传递层的原理,从节点到边、边到节点的传递。

下面是两种不同的聚集方式:先从节点到边/先从边到节点。现在对于哪种做法更好还没有定论,作者提出可以交替进行(下图种的weave layer),只是向量会更宽一些。


添加全局表示(Adding global representations)

如果说图很大,或者连接不够紧密,那聚合就需要走很远很远的路。这里介绍了一种解决方案:master node or context vector,这是一个虚拟的、抽象的点,与所有的节点和边相连。

作者说这个其实可以认为是featurize-wise attention mechanism(特征级的注意力机制),因为将相近的节点聚集了过来。现在我们就知道了基于消息传递的图神经网络是怎么样工作的。

4 实验


在这篇文章中,作者非常费心将GNN嵌入到JavaScript中,搭建了这样一个playground,给出分子结构的数据集,通过调节超参数,得到训练效果和结果可视化。分子结构是可以自定义的,非常值得玩一玩。



下面是超参数对效果的影响:



点边和全局向量长度对效果的影响:



不同层数对效果的影响:

聚合方式对效果的影响:

在哪些属性之间传递信息对效果的影响:

5 图相关的技术

multigraph和分层图


图采样和batch

图采样介绍了随机采样、随机游走、随机游走+邻居采样、扩散采样。



batch就是采用和其他神经网络一样的做法,把大图切成小样本进行一些运算,但是每个节点邻居数不同,如何合并为一个规则的tensor是具有挑战性的问题。

Inductive biases

CNN的假设是空间变换的不变性,RNN的假设是时序的连续性。对于GNN来说,假设是保持图的对称性(变换排列顺序,训练结果不变)。

对比聚合操作

sum max mean没有一种是非常理想的,不能一概而论,举了如下的例子:


GCN作为子图函数近似(个人认为这一部分是GNN的核心思想!!!)

GCN如果是k层,每一层都往前看一个邻居,那么最后一个节点看到的是一个子图,这个子图大小是k,和节点的距离是k。这里我理解的就是,GCN有多少层,就看到了多少阶的邻居。

所以,GCN实际上是有N个子图,每个子图都是从原节点出发,往前走k步。

边和图对偶

点和边做对偶,把边变成点,点变成边,邻接关系保持不变。

图卷积和矩阵乘法,矩阵乘法和图游走

核心就是做图卷积等价于拿邻接矩阵做矩阵乘法。

PageRank就是在很大的图上做随机游走,实际上就是把邻接矩阵拿出来,不断和向量做乘法。

图注意力网络(GAT)

在GCN中,将邻居节点汇聚到某个节点上,实际上是没有加权的。其实图神经网络中也可以像CNN中的卷积核一样,在3x3窗口中带有基于空间位置的不同的权重。图上不需要空间位置,只需要通过注意力机制计算两个节点向量的关系强弱,按计算出来的权重来聚合。


图的可解释性

神经网络到底学到了什么东西,可以抓取子图来看学到了什么。


生成模型

我们之前的模型是不改变图结构的,这里通过生成模型可以对图的拓扑结构进行有效建模。

6 对文章和GNN的评论


  • 对于文章

从头到尾读下来非常流畅!先介绍什么是图,在图中我们对顶点、边、全局都用向量表示,以及现实中的数据如何表示为图,如何对图做预测,算法用到图上有什么挑战。然后开始介绍图神经网络,首先定义了GNN是对属性做变换而不改变其结构,从最简单的例子开始讲解,用三个MLP做属性向量的变换,用全连接层做输出从而实现预测。如果有缺失向量怎么办,那就做聚合操作,把边、节点、全局属性利用上,也可以完成我们的预测工作。最后介绍真正意义的GNN,每一层通过汇聚操作把信息传递过来,从每个顶点看到邻居节点的信息,在每一层能充分汇聚到图中的信息。然后是实验部分,作者搭建了playground供读者玩,跑出了不同的超参数对模型效果的影响,最后对GNN的相关技术进行了展开。

文章写得是非常精美的,文中存在大量的交互图,文字围绕图展开。这么多的交互图既是缺点也是优点,用JavaScript写如此多的交互图是非常耗时间的事情,作者尽可能用图来代替大量的公式和代码,更直观易懂。本文的缺点就是,文章的宽度的展开,很多地方让读者一知半解,了解不到其中细节,导致懂GNN的人能感受到GNN的强大,不懂GNN的人仍然不知道其核心在哪里。
  • 对于GNN

图是非常强大,几乎所有数据都能表示成图,但是图上做优化很难,涉及到CPU和GPU的训练也是一个挑战,同时图神经网络对超参数非常敏感。近些年图神经网络在学术界迅速发展,实际上工业落地的并不多,GNN的发展还需要时间的沉淀。
登录查看更多
0

相关内容

【简明书】图数据库傻瓜式入门,51页pdf
专知会员服务
68+阅读 · 2022年3月26日
图神经网络综述
专知会员服务
197+阅读 · 2022年1月9日
【IJCAI2021】基于图学习的推荐系统综述
专知会员服务
96+阅读 · 2021年5月7日
专知会员服务
132+阅读 · 2020年8月24日
一份简短《图神经网络GNN》笔记,入门小册
专知会员服务
224+阅读 · 2020年4月11日
图表征学习在美团推荐中的应用
专知
1+阅读 · 2021年12月23日
图神经网络适合做推荐系统吗?
机器学习与推荐算法
1+阅读 · 2021年12月15日
GNN如何利用图上的边信息?
图与推荐
2+阅读 · 2021年11月14日
图神经网络从入门到入门
机器学习与推荐算法
1+阅读 · 2021年8月17日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
【GNN】R-GCN:GCN 在知识图谱中的应用
深度学习自然语言处理
11+阅读 · 2020年5月4日
赛尔笔记 | 一文读懂图神经网络
哈工大SCIR
81+阅读 · 2019年7月12日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
163+阅读 · 2019年2月14日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Principal Neighbourhood Aggregation for Graph Nets
Arxiv
17+阅读 · 2020年6月7日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
VIP会员
相关VIP内容
【简明书】图数据库傻瓜式入门,51页pdf
专知会员服务
68+阅读 · 2022年3月26日
图神经网络综述
专知会员服务
197+阅读 · 2022年1月9日
【IJCAI2021】基于图学习的推荐系统综述
专知会员服务
96+阅读 · 2021年5月7日
专知会员服务
132+阅读 · 2020年8月24日
一份简短《图神经网络GNN》笔记,入门小册
专知会员服务
224+阅读 · 2020年4月11日
相关资讯
图表征学习在美团推荐中的应用
专知
1+阅读 · 2021年12月23日
图神经网络适合做推荐系统吗?
机器学习与推荐算法
1+阅读 · 2021年12月15日
GNN如何利用图上的边信息?
图与推荐
2+阅读 · 2021年11月14日
图神经网络从入门到入门
机器学习与推荐算法
1+阅读 · 2021年8月17日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
【GNN】R-GCN:GCN 在知识图谱中的应用
深度学习自然语言处理
11+阅读 · 2020年5月4日
赛尔笔记 | 一文读懂图神经网络
哈工大SCIR
81+阅读 · 2019年7月12日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
163+阅读 · 2019年2月14日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员