The task of repeatedly solving parametrized partial differential equations (pPDEs) in, e.g. optimization or interactive applications, makes it imperative to design highly efficient and equally accurate surrogate models. The reduced basis method (RBM) presents as such an option. Enabled by a mathematically rigorous error estimator, RBM constructs a low-dimensional subspace of the parameter-induced high fidelity solution manifold from which an approximate solution is computed. It can improve efficiency by several orders of magnitudes leveraging an offline-online decomposition procedure. However, this decomposition, usually through the empirical interpolation method (EIM) when the PDE is nonlinear or its parameter dependence nonaffine, is either challenging to implement, or severely degrades online efficiency. In this paper, we augment and extend the EIM approach as a direct solver, as opposed to an assistant, for solving nonlinear pPDEs on the reduced level. The resulting method, called Reduced Over-Collocation method (ROC), is stable and capable of avoiding the efficiency degradation inherent to a traditional application of EIM. Two critical ingredients of the scheme are collocation at about twice as many locations as the dimension of the reduced solution space, and an efficient L1-norm-based error indicator for the strategic selection of the parameter values to build the reduced solution space. Together, these two ingredients render the proposed L1-ROC scheme both offline- and online-efficient. A distinctive feature is that the efficiency degradation appearing in alternative RBM approaches that utilize EIM for nonlinear and nonaffine problems is circumvented, both in the offline and online stages. Numerical tests on different families of time-dependent and steady-state nonlinear problems demonstrate the high efficiency and accuracy of L1-ROC and its superior stability performance.


翻译:反复解决优化或互动应用程序等部分偏差方程式(PPDDEs)的任务,反复解决在优化或互动应用程序中的偏差偏差方程式(PPDDEs),因此必须设计高效且同样准确的代用模型。降低基数方法(RBM)是一个选项。借助数学严谨的误差估算器,成果管理制可以构建一个低维的子空间,用于计算近似解决方案的参数诱导高忠诚度解决方案。它可以通过若干数量级来提高效率,利用离线离线离线脱解程序。然而,这种分解,通常通过经验性内置法(EIM),当PDE是非线性或参数依赖性非亚离线替代替代模型时,这种分解方法具有挑战性,或者是执行或严重降低在线效率。

0
下载
关闭预览

相关内容

专知会员服务
53+阅读 · 2020年9月7日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
26+阅读 · 2020年7月23日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
专知会员服务
61+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
《自然》(20190829出版)一周论文导读
科学网
6+阅读 · 2019年8月30日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
已删除
将门创投
5+阅读 · 2018年3月21日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Arxiv
0+阅读 · 2020年10月27日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
相关资讯
《自然》(20190829出版)一周论文导读
科学网
6+阅读 · 2019年8月30日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
已删除
将门创投
5+阅读 · 2018年3月21日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Top
微信扫码咨询专知VIP会员