The Deep Operator Networks~(DeepONet) is a fundamentally different class of neural networks that we train to approximate nonlinear operators, including the solution operator of parametric partial differential equations (PDE). DeepONets have shown remarkable approximation and generalization capabilities even when trained with relatively small datasets. However, the performance of DeepONets deteriorates when the training data is polluted with noise, a scenario that occurs very often in practice. To enable DeepONets training with noisy data, we propose using the Bayesian framework of replica-exchange Langevin diffusion. Such a framework uses two particles, one for exploring and another for exploiting the loss function landscape of DeepONets. We show that the proposed framework's exploration and exploitation capabilities enable (1) improved training convergence for DeepONets in noisy scenarios and (2) attaching an uncertainty estimate for the predicted solutions of parametric PDEs. In addition, we show that replica-exchange Langeving Diffusion (remarkably) also improves the DeepONet's mean prediction accuracy in noisy scenarios compared with vanilla DeepONets trained with state-of-the-art gradient-based optimization algorithms (e.g. Adam). To reduce the potentially high computational cost of replica, in this work, we propose an accelerated training framework for replica-exchange Langevin diffusion that exploits the neural network architecture of DeepONets to reduce its computational cost up to 25% without compromising the proposed framework's performance. Finally, we illustrate the effectiveness of the proposed Bayesian framework using a series of experiments on four parametric PDE problems.


翻译:深操作员网络 ~ (DeepONet) 是一条完全不同的神经网络, 我们向近似非线性操作员, 包括模拟部分差异方程式(PDE) 的解决方案操作员提供培训。 DeepONets 显示出惊人的近似和概括能力, 即使经过相对小的数据集培训。 但是, DeepONets 的性能在培训数据被噪音污染时会恶化, 这种情景在实践中经常发生。 为了让DeepONets培训能够用噪音数据进行DeepONets培训, 我们提议使用贝叶尔斯框架复制交换朗氏数据。 这样一个框架使用两个粒子来探索和另一个粒子来探索DeepONets的损失功能景观。 我们显示,拟议框架的探索和开发能力能够(1) 改善DeepONets在噪音假设情景下的培训一致性和概括能力,(2) 对参数PDES的预测解决方案进行不确定性估计。 此外, 我们显示, 复制Langeving Difulation(可明显地) 框架意味着, 将噪音框架的准确性预测, 与经州- Deeponets培训后, 利用州级网络的加速的加速成本模型分析, 将降低成本分析, 我们提议的升级的模型进行。

0
下载
关闭预览

相关内容

专知会员服务
141+阅读 · 2021年3月17日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
近期必读的六篇 NeurIPS 2020【因果推理】相关论文和代码
专知会员服务
71+阅读 · 2020年10月31日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICML2019机器学习顶会接受论文列表!
专知
10+阅读 · 2019年5月12日
已删除
将门创投
7+阅读 · 2019年3月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
9+阅读 · 2018年3月28日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICML2019机器学习顶会接受论文列表!
专知
10+阅读 · 2019年5月12日
已删除
将门创投
7+阅读 · 2019年3月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员