Learning system dynamics directly from observations is a promising direction in machine learning due to its potential to significantly enhance our ability to understand physical systems. However, the dynamics of many real-world systems are challenging to learn due to the presence of nonlinear potentials and a number of interactions that scales quadratically with the number of particles $N$, as in the case of the N-body problem. In this work, we introduce an approach that transforms a fully-connected interaction graph into a hierarchical one which reduces the number of edges to $O(N)$. This results in linear time and space complexity while the pre-computation of the hierarchical graph requires $O(N\log (N))$ time and $O(N)$ space. Using our approach, we are able to train models on much larger particle counts, even on a single GPU. We evaluate how the phase space position accuracy and energy conservation depend on the number of simulated particles. Our approach retains high accuracy and efficiency even on large-scale gravitational N-body simulations which are impossible to run on a single machine if a fully-connected graph is used. Similar results are also observed when simulating Coulomb interactions. Furthermore, we make several important observations regarding the performance of this new hierarchical model, including: i) its accuracy tends to improve with the number of particles in the simulation and ii) its generalisation to unseen particle counts is also much better than for models that use all $O(N^2)$ interactions.


翻译:从观测中直接从观测到的学习系统动态是机器学习的一个有希望的方向,因为它有可能大大提高我们理解物理系统的能力。然而,由于存在非线性潜力,以及像N-body问题一样,以粒子数量以等量计算,与微粒数量以美元为基数。在这项工作中,我们引入一种方法,将一个完全连接的互动图转换成一个等级图,将边缘数降低到$(N)美元。这在线性时间和空间复杂性方面产生了结果,而高级图形的计算前需要美元(N\log)(N)时间和$(N)空间。但是,由于存在非线性潜力和一些以等量计算颗粒数量成倍的相互作用,因此,许多实际粒子数量比微数要大得多。我们的方法保持高度的精确和效率,即使是大型重力模型的N-体模拟也不可能在单一机器上运行,如果完全连接的O-log(N)和$(N-N-N)预先计算需要美元和$(N-N-N-N-N-N) 空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间的动态,则很难学习过程需要学前需要$($) 时间和时间和时间和空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间空间。我们的动态。我们需要。我们需要。我们需要。我们需要。我们使用模型需要。我们可以通过) 等等等等等等等等等等等等等等等等等等等等等等等等等等等值需要。我们的方法,需要等等等等等等等等等等等等等等等等等等等等等等等等等等等等等等等等等等等非等非等等等等等等等非等非等等等非等非等非等等等非

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年5月13日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
23+阅读 · 2018年10月1日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年5月13日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
23+阅读 · 2018年10月1日
Learning to Importance Sample in Primary Sample Space
Top
微信扫码咨询专知VIP会员