GNN如何利用图上的边信息?

2021 年 11 月 14 日 图与推荐


链接:https://zhuanlan.zhihu.com/p/432923190

Backgrounds

图表示学习近年来取得巨大进展,以GCNs为代表的一系列图神经网络模型在节点分类、图分类、链接预测等图领域任务取得亮眼的成果。其中大部分模型基于message-passing方式构建,即“聚合邻居信息,更新节点自身状态”,在此范式中,节点特征得到充分的学习。而现实的许多图中,边上存在丰富的信息,它们在当前大多模型中未被充分利用。

Edge Features同样描述着网络,学习edge features能强化图神经网络的表达能力。

以下图为例:

社交网络中,edge features更具体地描述着用户(nodes)间关系。

Recently Works

当前图神经网络对边信息主要有如下几种利用方式:

2.1 Implicit Utilization

每个节点只aggregate其邻居的信息,这一聚合方式本身就基于节点间的边实现。此情况下只视作各个边为binary feature,只有“有边/无边”区别。

2.1 Naive Utilization

对于边上特征为scalar的情况,最简单直接的方式是使用带权的邻接矩阵描述,与之对应的,使用支持edge weight的模型学习即可。

2.3 Aggregate from Different Types of Edge

在许多场景中,边上特征为类别标签,如社交网络中,边上可以标注两人为工作关系、家人等。

对于存在多种类型边的图(边异构),常见处理方法是依照边的类型分别聚合信息。

如早期工作Relational GCN[2],

其只在GCN

的基础上,增加了

其他模型也是类似思路,仅在聚合方式上做进一步细化。如下图:

2.4 Multi-dimensional Edge Features

上述3个方式并不能较好地处理边上多维特征。面对多维边特征,常见手段也是在aggregation阶段将边特征、邻居节点特征通 为边特征维度数。

在GAT基础上,单独处理每一维的特征。聚合函数中加入节点特征,并为每一维特征单独学一组注意力权重,最后将各维输出concate。本文的edge embeddings,为每层所学的边多维特征注意力权重。

在GAT基础上,单独处理每一维的特征。聚合函数中加入节点特征,并为每一维特征单独学一组注意力权重,最后将各维输出concate。本文的edge embeddings,为每层所学的边多维特征注意力权重。过某种function结合在一起,再传给目标节点。

General Idea 如下图:

2.5 Learn Edge Embeddings

与2.4区别在于,下述方法以多维边特征为输入,并在模型每层更新,类似学习node embedding一般,同时学习edge embeddings。其实现方式多为创建某种辅助图,在该图中将边也视作节点,再用现有GAT等模型学习边和节点的表示。

1.EGNN [5]

为边特征维度数。

在GAT基础上,单独处理每一维的特征。聚合函数中加入节点特征,并为每一维特征单独学一组注意力权重,最后将各维输出concate。本文的edge embeddings,为每层所学的边多维特征注意力权重。 为边特征维度数。

在GAT基础上,单独处理每一维的特征。聚合函数中加入节点特征,并为每一维特征单独学一组注意力权重,最后将各维输出concate。本文的edge embeddings,为每层所学的边多维特征注意力权重。

2. CensNet [6]

使用line graph(原始图中节点变为line graph中的边,边变为节点)构建辅助图,在original graph和line graph上训练模型,交替更新node, edge embeddings。

3. NENN [7]

以GAT为基础,提出Node-level Attention Layer, Edge-level Attention Layer。

每个layer区别主要在于输入的图的观察角度。

如下图中两矩形方框部分,分别以node、edge为视角,重新定义“邻居”,将边/节点视作新图中的节点,在新图中学习边和节点的embeddings。

4. EGAT [8]

与CensNet类似,使用line graph+GAT学习节点和边的表示。

Discussion

  • 2.5中多用GAT编码边特征信息,带来较大的计算开销,能否更轻量且优雅的编码边特征?

  • 2.5中使用诸如line graph等构建辅助图,把原图中的边变换为辅助图中的节点,从而可以利用已有GNN进行边嵌入的学习。但是,对于“边的邻居边”,是否同样满足节点与其邻居相近的假设?

  • 如何评估边特征与节点的关系,边特征如何切实的帮助图表示学习?



登录查看更多
2

相关内容

【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
50+阅读 · 2021年5月19日
专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
37+阅读 · 2020年11月24日
系列教程GNN-algorithms之七:《图同构网络—GIN》
专知会员服务
47+阅读 · 2020年8月9日
【图神经网络(GNN)结构化数据分析】
专知会员服务
115+阅读 · 2020年3月22日
ICLR'22| 如何提升任意GNN的表现能力?
图与推荐
0+阅读 · 2022年4月15日
图神经网络适合做推荐系统吗?
机器学习与推荐算法
1+阅读 · 2021年12月15日
WSDM‘21 | 如何增加GNN的鲁棒性?
图与推荐
1+阅读 · 2021年12月10日
KDD'21 | 图神经网络如何建模长尾节点?
图与推荐
6+阅读 · 2021年10月18日
论文小综 | Attention in Graph Neural Networks
图与推荐
2+阅读 · 2021年5月10日
【GNN】R-GCN:GCN 在知识图谱中的应用
深度学习自然语言处理
11+阅读 · 2020年5月4日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
163+阅读 · 2019年2月14日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
27+阅读 · 2020年6月19日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
50+阅读 · 2021年5月19日
专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
37+阅读 · 2020年11月24日
系列教程GNN-algorithms之七:《图同构网络—GIN》
专知会员服务
47+阅读 · 2020年8月9日
【图神经网络(GNN)结构化数据分析】
专知会员服务
115+阅读 · 2020年3月22日
相关资讯
ICLR'22| 如何提升任意GNN的表现能力?
图与推荐
0+阅读 · 2022年4月15日
图神经网络适合做推荐系统吗?
机器学习与推荐算法
1+阅读 · 2021年12月15日
WSDM‘21 | 如何增加GNN的鲁棒性?
图与推荐
1+阅读 · 2021年12月10日
KDD'21 | 图神经网络如何建模长尾节点?
图与推荐
6+阅读 · 2021年10月18日
论文小综 | Attention in Graph Neural Networks
图与推荐
2+阅读 · 2021年5月10日
【GNN】R-GCN:GCN 在知识图谱中的应用
深度学习自然语言处理
11+阅读 · 2020年5月4日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
163+阅读 · 2019年2月14日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
27+阅读 · 2020年6月19日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
26+阅读 · 2018年2月27日
Top
微信扫码咨询专知VIP会员