图神经网络(Graph Neural Networks, GNN)在诸多图任务上的巨大潜力已经有目共睹。众多学者也从不同的视角开始对GNN背后的机制开展探索,诸如 [1] 指出了GNN的低通滤波特性,[2] 证明了GNN等价于1-WL test,[3] 揭示了统一优化目标下的GNN传播机制。其中GNN的低通滤波特性引起了业界广泛关注,因为这意味着GNN可以有效过滤数据中的噪声,平滑邻居节点的表示,达到邻近节点具有相似表征的目的。故而,这使得GNN非常适用于同配图(Assortative Graph / Homophily Graph),即网络中有相同标签的节点倾向于互相连接。
以广泛使用的三个数据集,Cora, citeseer和pubmed为例,这三个数据集都属于学术网络,其特点是网络有极强的同配性。由于GCN的消息传递方式是利用均值聚合所有邻居的信息,所以可以很好地学习到学术网络的归纳偏置(Inductive bias)。
但是,我们不禁要问,现实世界中的网络是否都具有同配性这一特点呢?其实早在2003年,密歇根大学的物理学教授Mark Newman就已经在论文《Mixing patterns in networks》[4] 中对现实世界里的各种网络的同配性做了分析,如下图所示:
解决异配图问题最直接的一个方法就是,通过改变图结构,使得原本的异配图变为同配图,这样在同配图上表现好的方法就可以继续用在异配图中。论文[6]中提出了一种利用利用结构信息为节点选择邻居的模型:Geom-GCN。其基本思想是,具有相似结构信息的节点(例如桥节点、中心节点等)可能属于同一个类别,因此可以利用结构信息来为节点选择新的邻居,增加图的同配性。其模型流程如下图所示:
类似的思想其实 [7] 也做了初步尝试,除了原始的图结构以外,他们基于节点特征显式地构造了一个新的特征图,这样假如原始图结构不具备同配性特点的时候,新的基于节点特征的特征图或可以起到效果。进一步地,也可以直接抛弃掉显式构造特征图的步骤,直接学习出一个新的图结构 [8]。
2.2 图表征分离
除了图结构学习外,还有一些方法尝试通过改进图神经网络的消息传递机制来提升其表达能力。H2GNN [9] 从理论上证明了分离节点自身的表征和邻居聚合的表征可以将图神经网络泛化到异配图上。然后它设计了三个关键的消息传递机制,通过适当集成,可以帮助图神经网络提升在异配图上的性能。
参考文献
特别鸣谢
感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧