We are concerned with employing Model Order Reduction (MOR) to efficiently solve parameterized multiscale problems using the Localized Orthogonal Decomposition (LOD) multiscale method. Like many multiscale methods, the LOD follows the idea of separating the problem into localized fine-scale subproblems and an effective coarse-scale system derived from the solutions of the local problems. While the Reduced Basis (RB) method has already been used to speed up the solution of the fine-scale problems, the resulting coarse system remained untouched, thus limiting the achievable speed up. In this work we address this issue by applying the RB methodology to a new two-scale formulation of the LOD. By reducing the entire two-scale system, this two-scale Reduced Basis LOD (TSRBLOD) approach, yields reduced order models that are completely independent from the size of the coarse mesh of the multiscale approach, allowing an efficient approximation of the solutions of parameterized multiscale problems even for very large domains. A rigorous and efficient a posteriori estimator bounds the model reduction error, taking into account the approximation error for both the local fine-scale problems and the global coarse-scale system.


翻译:我们担心的是,采用示范减少命令(MOR)来有效解决参数化多尺度问题,使用本地化矫形分解(LOD)多尺度的多尺度方法。与许多多尺度方法一样,LOD遵循将问题分为局部微规模子问题和从本地问题解决办法中得出的有效粗化系统的想法。虽然已经使用降低基准(RB)方法来加快微规模问题的解决办法,但由此产生的粗肿系统仍然未触及,从而限制了可实现的速度。在这项工作中,我们通过将RB方法应用于新的两尺度制制LOD(LOD)来解决这一问题。通过减少整个两尺度制,这种两尺度的降低基础液化(MSRBLOD)方法可以产生完全独立于多尺度方法粗化网格大小的减少订单模式,从而能够有效地近似多尺度参数化问题的解决办法,即使是在非常大的地区。一个严格和高效的后台估测算器将模型的缩小错误捆绑住模型的缩小,同时考虑到地方微尺度问题和全球尺度共尺度系统的近似误。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年7月15日
专知会员服务
50+阅读 · 2020年12月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年1月18日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年7月15日
专知会员服务
50+阅读 · 2020年12月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员