最近,图神经网络在模拟动态系统方面获得了很多关注,因为其归纳性导致了零样本泛化。同样,深度学习框架中基于物理学的归纳偏差已被证明在学习物理系统的动力学方面具有卓越的性能。越来越多的文献试图将这两种方法结合起来**。本文评估了13种不同的图神经网络的性能,即哈密顿和拉格朗日图神经网络、图神经ODE及其具有显式约束和不同架构的变体。我们简要解释了理论公式,强调了这些系统在归纳偏差和图架构方面的异同**。在弹簧、摆、引力和3D可变形固体系统上评估了这些模型,以在推出误差、能量和动量等守恒量以及对未见系统尺寸的通用化方面比较性能。我们的研究表明,带有附加归纳偏差的gnn,如显式约束和动能和势能的解耦,表现出显著增强的性能。此外,所有基于物理学的GNNs对比训练系统大一个数量级的系统大小表现出零样本泛化能力,从而为模拟大规模现实系统提供了一条有希望的路线。 https://www.zhuanzhi.ai/paper/4c44f7858ecd1ef3985cfb582ccf7f30

成为VIP会员查看完整内容
18

相关内容

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【NeurIPS2022】几何知识蒸馏:图神经网络的拓扑压缩
专知会员服务
24+阅读 · 2022年11月9日
NeurIPS2022|基于解耦因果子结构学习的去偏差图神经网络
【ICML2022】闭式同构变换的时间序列对齐
专知会员服务
11+阅读 · 2022年6月20日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
95+阅读 · 2021年5月25日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
NeurIPS'22 | 具有自适应读出的图神经网络
图与推荐
1+阅读 · 2022年11月11日
【NeurIPS2022】具有自适应读出的图神经网络
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【NeurIPS2021】InfoGCL:信息感知图对比学习
图与推荐
1+阅读 · 2021年11月3日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
23+阅读 · 2022年2月24日
Arxiv
19+阅读 · 2021年2月4日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
35+阅读 · 2020年1月2日
VIP会员
相关VIP内容
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【NeurIPS2022】几何知识蒸馏:图神经网络的拓扑压缩
专知会员服务
24+阅读 · 2022年11月9日
NeurIPS2022|基于解耦因果子结构学习的去偏差图神经网络
【ICML2022】闭式同构变换的时间序列对齐
专知会员服务
11+阅读 · 2022年6月20日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
95+阅读 · 2021年5月25日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员