We propose a nonlinear reduced basis method for the efficient approximation of parametrized partial differential equations (PDEs), exploiting kernel proper orthogonal decomposition (KPOD) for the generation of a reduced-order space and neural networks for the evaluation of the reduced-order approximation. In particular, we use KPOD in place of the more classical POD, on a set of high-fidelity solutions of the problem at hand to extract a reduced basis. This method provides a more accurate approximation of the snapshots' set featuring a lower dimension, while maintaining the same efficiency as POD. A neural network (NN) is then used to find the coefficients of the reduced basis by following a supervised learning paradigm and shown to be effective in learning the map between the time/parameter values and the projection of the high-fidelity snapshots onto the reduced space. In this NN, both the number of hidden layers and the number of neurons vary according to the intrinsic dimension of the differential problem at hand and the size of the reduced space. This adaptively built NN attains good performances in both the learning and the testing phases. Our approach is then tested on two benchmark problems, a one-dimensional wave equation and a two-dimensional nonlinear lid-driven cavity problem. We finally compare the proposed KPOD-NN technique with a POD-NN strategy, showing that KPOD allows a reduction of the number of modes that must be retained to reach a given accuracy in the reduced basis approximation. For this reason, the NN built to find the coefficients of the KPOD expansion is smaller, easier and less computationally demanding to train than the one used in the POD-NN strategy.


翻译:我们建议一种非线性降低基数方法,用于有效近似超离性部分差异方程式(PDEs),利用内核正正正正正分分分解(KPOD),以生成一个减少排序空间和神经网络,用于评估降序近端;特别是,我们用KPOD来取代较古典的POD,以一系列高不洁问题解决方案为基础;这一方法可以更准确地近似近似近离差偏差(PDEs),同时保持与POD同样的效率。然后,使用一个神经网络(NNN)来寻找降低基数的系数,遵循一个受监督的学习模式和神经网络网络网络网络,以在时间/参数值接近度近近近近点时和神经网络之间学习地图。在这个NDOD中,隐藏层数和神经系统数随差异问题的内在层面变化而变化,在两个经调整的 NNNF网络中,一个经调整的精确度网络网络达到较精确的精确度系数,在学习/参数上,最后测试一个不以NDOD 标准测试一个我们提出的降低的PDOD做法,一个标准,一个测试一个标准到最后测试一个标准,一个测试一个标准,一个标准,一个标准,一个标准是我们提出的水平的不为标准,一个测试一个标准,一个标准,一个标准,一个标准,一个标准,一个标准,一个标准的计算为标准,一个标准,一个标准,一个标准,一个标准值为标准,一个标准,一个标准的计算值为标准值为标准值的计算方法为标准值为标准值为标准值为标准,一个标准。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
专知会员服务
51+阅读 · 2020年12月14日
专知会员服务
45+阅读 · 2020年10月31日
一份简单《图神经网络》教程,28页ppt
专知会员服务
125+阅读 · 2020年8月2日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
78+阅读 · 2020年2月3日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
ICML2019:Google和Facebook在推进哪些方向?
中国人工智能学会
5+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
干货 | 深度学习论文汇总
AI科技评论
4+阅读 · 2018年1月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Operator Compression with Deep Neural Networks
Arxiv
0+阅读 · 2021年5月25日
Arxiv
0+阅读 · 2021年5月21日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
5+阅读 · 2018年5月31日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
专知会员服务
51+阅读 · 2020年12月14日
专知会员服务
45+阅读 · 2020年10月31日
一份简单《图神经网络》教程,28页ppt
专知会员服务
125+阅读 · 2020年8月2日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
78+阅读 · 2020年2月3日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
ICML2019:Google和Facebook在推进哪些方向?
中国人工智能学会
5+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
干货 | 深度学习论文汇总
AI科技评论
4+阅读 · 2018年1月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员