何图是一种具有几何特征的特殊类型的图,对于建模许多科学问题至关重要。与通用图不同,几何图通常表现出平移、旋转和反射等物理对称性,使得它们无法有效地由当前的图神经网络(GNN)处理。为了解决这个问题,研究人员提出了许多具有不变/同构属性的几何图神经网络,以更好地表征几何图的几何和拓扑特性。考虑到该领域的当前进展,对与几何GNN相关的数据结构、模型和应用进行全面调查是非常必要的。 在本报告中,基于数学预备知识的必要但简洁的内容,我们从几何消息传递的角度对现有模型进行了统一视图。此外,我们总结了应用和相关数据集,以促进后续方法开发和实验评估的研究。我们还讨论了几何GNN的挑战和未来潜在方向。 1 介绍

本文对几何图神经网络(GNNs)进行了系统综述,重点介绍了方法和应用。 首先介绍了群论和协变性/不变性的形式定义等预备知识,然后提出了几何图作为通用数据结构,将现实世界数据和模型联系起来。接下来,将现有的模型分为不变GNNs和协变GNNs,后者又进一步分为基于标量化的模型和高阶可调模型。此外,还介绍了几何图变换器。最后,提供了几何GNNs在基于粒子的物理系统、分子、蛋白质、复合物以及晶体和RNA等其他领域中成功应用的全面集合。本调查的目标是提供一个全面的概述,包括数据结构、模型设计和应用,对机器学习从业人员在各种科学任务上使用几何GNNs具有指导意义。 图1 几何图神经网络与传统方法在分子性质预测、蛋白质-配体对接和抗体设计方面的性能比较。 图2 数据结构、模型到应用的全流程示例 2 对称性的基本概念

2.1 转换和组

我们定义了对称性来描述一个对象在一定变换下保持不变的情况。例如,空间中两点间的距离无论我们如何旋转或移动都保持不变。在数学上,这些变换可以构成一个群,详见[58]。 群G是一个具有二元运算“·”的变换集合,满足封闭性、结合性、存在单位元e和每个元素都有逆元等性质。欧几里得群E(d)由旋转、反射和位移构成,作用于d维向量上。欧几里得群的子群T(d)由位移构成。仿射群O(d)由旋转和反射构成,作用于d维向量上。特殊仿射群SO(d)只由旋转构成。特殊欧几里得群SE(d)只由旋转和位移构成。Lie群是元素构成可微流形的群,上述所有群都是Lie群的特定例子。置换群SN的元素是对给定集合N个元素的置换。 2.2 群表示

群运算“·”可以通过群表示实现为矩阵乘法。群同态ρ(g):G→GL(V)将群元素g映射到一般线性群,满足ρ(g)ρ(h)=ρ(g·h)。当V=Rd时,GL(V)包含所有可逆的d×d矩阵,ρ(g)将一个矩阵分配给元素g。对于欧几里得群O(d),其群表示由欧几里得矩阵O∈Rd×d定义,满足O⊤O=I;对于SO(d),群表示被限制为行列式为1的欧几里得矩阵,记为R。翻译群T(d)的情况稍微繁琐,可以通过仿射空间使用齐次坐标来推导。需要注意的是,群的表示不是唯一的。 2.3 等方差和不变性

G-同态是指函数ϕ:X→Y,当对输入进行任何变换时,输出也会通过相同的变换或可预测的行为而改变。形式上,ϕ(g·x)=g·ϕ(x),∀g∈G。等方差是G-同态的一种特殊情况,ϕ(ρX(g)x)=ρY(g)ϕ(x),∀g∈G,其中ρX和ρY分别是输入和输出空间中的群表示。等方差具有线性性、可组合性和继承性等特点。在网络中,每个层的等方差意味着整个网络是同态的。在几何图的变换中,函数ϕ被设计为不变/同态的GNN。 3 数据结构:从图到几何图

本节定义了图和几何图,并比较了它们的差异。表1列出了本文中使用的符号。表1 本调查中使用的各种基本符号和定义

3.1 图

传统上,图的研究主要关注其拓扑关系,如社交网络、引文网络等。在AI驱动的药物设计领域,这些图被称为2D图。图被定义为G=(A,H),其中A是邻接矩阵,表示节点间关系;H是节点特征矩阵,表示节点属性。图还包括节点集合V和边集合E,节点i的邻居是与其直接相连的节点集合。图还可以包含边特征,表示边的属性。图变换可以改变节点的顺序而不改变图的拓扑结构,这种变换被称为置换变换。在置换变换下,两个图是等价的,当且仅当它们可以通过置换变换相互转换。分子可以被视为图,其中节点表示原子,节点特征表示原子类型,边表示化学键的存在或基于原子间距离的截止阈值构建,边特征可以表示化学键类型和/或相对距离。 3.2 几何图

几何图形定义为:⃗G := (A, H, ⃗X),其中A∈[0,1]N×N是邻接矩阵,H∈RN×C是节点特征矩阵,维度为C,⃗X∈RN×3是所有节点的三维坐标。几何图形的变换包括置换、正交变换(旋转和反射)和平移。置换定义为g · ⃗G := (PgAPg ⊤, PgH, Pg ⃗X),正交变换定义为g · ⃗G := (A, H, ⃗XOg),平移定义为g · ⃗G := (A, H, ⃗X + ⃗tg)。欧几里得群E(3)是正交变换和平移的半直积,表示为E(3) = T(3) ⋉ O(3)。几何图形是用于在科学任务中建模各种对象的强大而通用的工具,包括小分子、蛋白质、晶体、物理点云等以及许多其他对象。

图3 几何图形上的变换示例 4 模型:几何GNN

在这部分,我们将首先回顾拓扑图上的消息传递神经网络(MPNN)的一般形式。接着,介绍能够处理几何图的三种不同类型的几何GNN:不变GNN、同态GNN以及几何图变换器。最后,简要介绍有关几何GNN表达能力的相关工作。图4展示了本部分中几何GNN的分类。 图4 第4节中介绍的几何GNN分类学表2 不变性图神经网络、基于标量化的图神经网络和高阶可导向图神经网络的代表性模型示意图

4.1 消息传递神经网络

图神经网络(GNNs)通过消息传递机制在图的帮助下进行操作,更新节点的嵌入以实现信息沿着图结构的传播。具体来说,消息传递GNNs通过在每个层中迭代以下消息传递过程来实现拓扑图G上的ϕ(G)。

节点特征hi、hj和边特征eij首先由消息函数合成以获得消息mij。然后,邻居中的消息通过一组函数进行聚合,并与输入hi结合,用于更新节点特征h'i。由等式(3)和(4)定义的GNNs总是排列同态但并不具有内在的E(3)-同态性。 4.2 不变图神经网络

几何域中存在许多需要提出的模型来处理欧几里得变换不变的任务,如分子属性预测。不变图神经网络通过更新不变特征H’ = ϕ(G)来处理这些问题,其中函数ϕ满足欧几里得变换不变性

早期的不变图神经网络包括DTNN、MPNN和MV-GNN,它们使用相对距离进行边构造。近年来,不变图神经网络在消息传递机制上进一步发展,从相对距离扩展到边之间的角度或二面角等不变标量。其中,SchNet使用连续滤波器卷积条件于相对距离,DimeNet提出了方向性消息传递,GemNet进一步考虑了旋转角,而LieConv则是一种在节点特征更新时保持几何向量不变的图神经网络模型。这些模型的设计都是为了嵌入欧几里得变换不变的归纳偏置,以更好地处理几何域中的任务。 4.3 等变图神经网络

等变图神经网络(equivariant GNNs)同时更新不变特征和同态特征,适用于需要同态输出的实际任务。等变GNNs将几何图上的函数设计为满足特定条件,通过信息传递推导出几何消息,并在图由连通性或邻接矩阵指定的邻域内进行聚合,考虑输入特征进行更新。目前实现等变GNNs的具体形式有不同的方法,分为标量化模型和高阶可调模型。 4.3.1 基于标量化的模型

基于标量化的模型是指将 3D 坐标转换为不变标量,类似于不变 GNN 的设计,但通过进一步恢复处理标量的方向来更新等变特征,从而改进不变 GNN。这种方法首先将相对距离用于不变消息的更新,然后乘以相对坐标以获得方向消息。这种方法可以视为 SchNet 和 Radial Field 的扩展,并且可以视为等变 GNN 的增强。这类模型包括 EGNN、GMN、PaiNN 和 Local Frames 等。 4.3.2 高阶可调模型

高阶可调模型是指在等变 GNN 中,通过使用更高阶的旋转表示来扩展等变 GNN 的能力。这种方法使用 Wigner-D 矩阵将 3D 旋转转换为群表示的不同阶数,使用球谐函数将 3D 向量转换为不同类型的可操纵特征,并使用 Clebsch-Gordan 张量积执行等变映射。这种方法可以扩展等变 GNN 的能力,使其能够处理更复杂的几何图形。这种方法在 TFN、SEGNN、Cormorant、NequlP、SCN、eSCN、MACE、Allegro、Graphormer、TorchMD-Net、SE(3)-Transformer、LieTransformer、GVP-Transformer、Equiformer、EquiformerV2、Geoformer 和 EPT 等模型中得到了应用。 4.4 几何图Transformers

几何图Transformers,是一种创新的方法,它将Transformer架构巧妙地应用于几何图形数据的处理中,从而能够应对更为复杂的几何数据挑战。该方法在Graphormer、TorchMD-Net、SE(3)-Transformer、LieTransformer、GVP-Transformer、Equiformer、EquiformerV2、Geoformer和EPT等模型中得到了广泛应用,这些模型在各自领域内展现出了出色的性能和潜力。 4.5 表达性的理论分析

在机器学习中,衡量网络表达性的一个重要标准是其是否具有通用近似性质。在几何图学习任务中,人们进行了初步尝试,探索了各种GNN的表达性差异。最近,GWL框架从区分几何图的角度定义了几何版本的Weisfeiler-Lehman测试,并证实了共变GNN相对于不变GNN具有优势。此外,一些作品还研究了标量化的模型表达性,证实了标量化方法可以普遍近似向量中的任何不变/共变函数。这些研究有助于理解网络表达性的重要性,并促进机器学习在几何图领域的应用发展。 5 应用

本部分回顾了与几何图学习相关的应用,根据系统类型对现有方法进行了分类,涵盖颗粒、分子、蛋白质等任务,如表3所示。表4和表5总结了单实例和多实例任务数据集。重点讨论了利用几何GNNs的方法,但其他方法如基于序列的方法也适用。表3 各种几何GN的任务概括。生成任务指的是可以通过生成模型解决的那些任务,否则被称为非生成任务。可以用生成模型或非生成模型解决的那些任务被称为混合任务。 表4 单实例应用典型数据集和基准的总结 表5 针对多实例应用所采用的典型数据集和基准的总结。

**粒子领域的应用。**粒子通常被表示为一个几何图,其中粒子坐标作为节点位置,键作为边,粒子类型或粒子的其他属性作为节点特征。几何图神经网络被广泛应用于描述一般物理动力学的过程,例如N-body模拟,该模拟最初由[133]提出,旨在模拟由N个相互作用的粒子组成的原型系统的动力学。虽然它是在理想条件下构建的,但N-body系统能够表示从量子物理学到天文学的各种物理现象,通过容纳不同的相互作用。其他例子包括涉及更复杂对象的物理场景的模拟,包括流体、刚体、可变形体和人体运动 **分子领域的应用。**分子通常被表示为一个几何图,其中原子坐标作为节点位置,键作为边,原子类型或原子的其他属性作为节点特征。几何图神经网络被广泛应用于分子性质预测、分子动力学模拟、分子生成和分子预训练等任务。 **蛋白质领域的任务。**蛋白质是由一个或多个长链氨基酸组成的大分子,具有独特的三维结构,这些结构决定了蛋白质在生物过程中的功能和活性。由于蛋白质具有层次结构,因此有两种不同的方法来利用几何图 G 来表示蛋白质。一种是将每个残基视为一个节点,将 a- 碳的位置作为坐标矩阵 X 和残基级别特征作为 H。另一种方法是采用全原子设置,将每个原子视为一个节点,将所有原子的位置作为 X 和原子级别特征作为 H。在两种方法中,边缘连接可以通过化学键或截断距离创建。本节主要介绍与蛋白质相关的几个任务,包括蛋白质性质预测、蛋白质生成、蛋白质预训练、蛋白质-蛋白质界面预测、蛋白质-蛋白质对接、口袋基分子采样、蛋白质-蛋白质对接、抗体设计和肽设计等。 **分子与分子之间的任务,**包括连接器设计和化学反应。连接器设计需要预测连接两个或多个分子片段的小分子,这些小分子可以保持多结构域蛋白质或融合蛋白质的正确方向、灵活性和稳定性。化学反应任务需要预测分子之间的反应产物。 **分子与蛋白质之间的任务,**包括配体结合亲和力预测、蛋白质-配体对接和口袋基分子采样。配体结合亲和力预测任务旨在估计蛋白质(受体)和小分子(配体)之间的相互作用强度。蛋白质-配体对接任务旨在预测蛋白质和配体之间的相对位置和取向。口袋基分子采样任务旨在从蛋白质的活性位点生成小分子。这些任务的输入都是分子和蛋白质的几何图,输出是预测的分子或蛋白质的几何图。这些任务的对称性保持和预测函数都是基于几何图神经网络的。 **蛋白质-蛋白质相互作用的任务,**包括蛋白质界面预测、结合亲和力预测、蛋白质-蛋白质对接、抗体设计和肽设计。蛋白质界面预测任务需要识别蛋白质表面可能参与与其他蛋白质相互作用的区域。结合亲和力预测任务需要学习预测蛋白质对之间结合强度的预测函数。蛋白质-蛋白质对接任务需要预测蛋白质之间的相对位置和取向。抗体设计任务需要考虑抗体和抗原之间的相互作用。肽设计任务需要考虑肽和蛋白质之间的相互作用。这些任务的输入都是蛋白质的几何图,输出是预测的蛋白质的几何图。这些任务的对称性保持和预测函数都是基于几何图神经网络的。 **其他领域的任务,**包括晶体性质预测和RNA。晶体性质预测任务需要预测晶体结构的性质,晶体结构由其重复单元表示,重复单元由坐标矩阵和特征矩阵表示。晶体结构具有周期性,因此需要使用几何图神经网络来捕捉这种周期性。对称性保持要求输出对坐标和晶格具有不变性,对坐标具有周期性平移不变性,对晶格具有单元选择不变性。数据集包括Materials Project和JARVIS-DFT数据库。RNA任务需要预测RNA的二级结构,RNA的二级结构由碱基配对表示。对称性保持要求输出对坐标具有不变性。数据集包括ViennaRNA和RNA-Puzzles数据库。 6 讨论与未来展望

尽管在几何图谱领域已有显著进展,但仍有许多未解决的问题值得研究。其中,几何图谱基础模型是关键问题之一。GPT系列和Gato等模型的成功表明,统一的基础模型可以带来实质性优势。然而,将这种模式应用于几何领域仍面临挑战,如任务空间、数据空间和模型空间的复杂性。同时,现实世界的实验验证和模型训练的有效闭环也是一个挑战。目前的研究通常采用开环风格,但这种方法存在数据集小、评估不可靠等问题。因此,需要在模型预测和实验验证之间建立闭环,以更有效地训练和测试几何图神经网络。 此外,与大型语言模型(LLM)的集成也是一个值得研究的方向。LLM已证明拥有丰富知识,通过将LLM代理集成到几何图神经网络(GNN)的管道中,可以增强GNN的能力。然而,这种集成面临处理3D结构信息和进行预测/生成的挑战。 最后,对同态性的放松也是一个值得研究的问题。虽然同态性有助于提高数据效率和泛化能力,但过于坚持同态性原则可能会限制模型性能。因此,探索在保持同态性和适应灵活性之间取得平衡的方法,对于增强模型实用性具有重要意义。 综上所述,几何图谱领域仍有许多未解决的问题值得研究,包括基础模型的设计、现实世界实验验证的有效闭环、与大型语言模型的集成以及对同态性的放松。这些问题的解决有望推动几何图谱领域的进一步发展。 文献链接:https://arxiv.org/abs/2403.00485

成为VIP会员查看完整内容
17

相关内容

激活的三十年:神经网络400个激活函数的全面综述
图时卷积神经网络:架构与理论分析
专知会员服务
24+阅读 · 2022年7月3日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
138+阅读 · 2021年3月30日
专知会员服务
29+阅读 · 2021年2月26日
专知会员服务
94+阅读 · 2021年2月6日
专知会员服务
23+阅读 · 2020年9月15日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
最新《图嵌入组合优化》综述论文,40页pdf
【KDD2020】图神经网络:基础与应用,322页ppt
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
激活的三十年:神经网络400个激活函数的全面综述
图时卷积神经网络:架构与理论分析
专知会员服务
24+阅读 · 2022年7月3日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
138+阅读 · 2021年3月30日
专知会员服务
29+阅读 · 2021年2月26日
专知会员服务
94+阅读 · 2021年2月6日
专知会员服务
23+阅读 · 2020年9月15日
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员