Optimization constrained by computational models is common across science and engineering. However, in many cases a high-fidelity model of the system cannot be optimized due to its complexity and computational cost. Rather, a low(er)-fidelity model is constructed to enable intrusive and many query algorithms needed for large-scale optimization. As a result of the discrepancy between the high and low-fidelity models, the optimal solution determined using the low-fidelity model is frequently far from true optimality. In this article we introduce a novel approach which uses limited high-fidelity data to calibrate the model discrepancy in a Bayesian framework and propagate it through the optimization problem. The result provides both an improvement in the optimal solution and a characterization of uncertainty due to the limited accessibility of high-fidelity data. Our formulation exploits structure in the post-optimality sensitivity operator to ensure computational scalability. Numerical results demonstrate how an optimal solution computed using a low-fidelity model may be significantly improved with as little as one evaluation of a high-fidelity model.


翻译:由计算模型限制的最佳化在科学和工程中是常见的,但在许多情况下,由于系统的复杂性和计算成本,无法优化其高度忠诚模型,相反,为了能够进行大规模优化所需的侵入性和多种查询算法,构建了一个低(er)-忠诚模型,以便进行大规模优化所需的入侵性和多种查询算法。由于高和低忠诚模型之间的差异,使用低忠诚模型确定的最佳解决办法往往远非真正最佳的。在本篇文章中,我们采用了一种新颖的办法,即使用有限的高忠诚数据校准贝叶斯框架的模型差异,并通过优化问题加以传播。结果既改进了最佳解决办法,又由于高忠诚数据的可获取性有限,对不确定性作了定性。我们的配方利用了后忠诚度敏感操作器的结构,以确保计算性。数字结果表明,使用低忠诚模型计算的最佳解决办法如何大为改进,只对高忠诚模型进行一次评估。

0
下载
关闭预览

相关内容

【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
118+阅读 · 2022年4月21日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
31+阅读 · 2020年9月21日
VIP会员
相关资讯
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
相关基金
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员