We propose structure-preserving neural-network-based numerical schemes to solve both L2-gradient flows and generalized diffusions. In more detail, by using neural networks as tools for spatial discretization, we introduce a structure-preserving Eulerian algorithm to solve L2-gradient flows and a structure-preserving Lagrangian algorithm to solve generalized diffusions. The Lagrangian algorithm for a generalized diffusion evolves the "flow map" which determines the dynamics of the generalized diffusion. This avoids the non-trivial task of computing the Wasserstein distance between two probability functions. Unlike most existing methods that construct numerical discretizations based on the strong or weak form of the underlying PDE, the proposed schemes are constructed using variational formulations of these PDEs for preserving their variational structures. Our schemes first perform temporal discretization on these variational systems. By doing so, they are very computer-memory-efficient. Moreover, instead of directly solving the obtained nonlinear systems after temporal and spatial discretization, a minimizing movement scheme is utilized to evolve the solutions. This guarantees the monotonic decay of the energy of the system and is crucial for the long-term stability of numerical computation. Lastly, the proposed neural-network-based scheme is mesh-free and enables us to solve gradient flows in high dimensions. Various numerical experiments are presented to demonstrate the accuracy and energy stability of the proposed numerical approaches.


翻译:我们提出基于结构保存神经网络的数字方案,以解决L2-梯度流和普遍扩散的L2-梯度流。更详细地说,我们通过使用神经网络作为空间离散的工具,采用了一种结构保存 Eularian 算法,以解决L2-梯度流和结构保存Lagrangian 算法,以解决普遍扩散问题。拉格兰加的普及传播算法发展了“流图”,它决定了普遍扩散的动态。这避免了计算两个概率函数之间瓦塞尔斯坦距离的非三轨任务。与大多数基于基础PDE的强弱形式构建数字离散的现有方法不同,我们拟议中的计划是用这些PDE的变异性公式来构建的。我们的计划首先对这些变异性系统进行时间分解。通过这样做,它们非常具有计算机-移动效率。此外,在时间和空间离析后直接解决所获得的非线性系统,一个最小化的移动计划被用来演化解决方案。这保证了基于基础PDE的强弱形式的数字离异化,这保证了我们这些PDE的能量的单度衰变,而稳定的系统和数字级计算方法对于长期的递化的递化是最终的递化方法的关键。

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
13+阅读 · 2021年6月14日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
Directional Graph Networks
Arxiv
27+阅读 · 2020年12月10日
VIP会员
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员