Multi-objective optimization problems are ubiquitous in real-world science, engineering and design optimization problems. It is not uncommon that the objective functions are as a black box, the evaluation of which usually involve time-consuming and/or costly physical experiments. Data-driven evolutionary optimization can be used to search for a set of non-dominated trade-off solutions, where the expensive objective functions are approximated as a surrogate model. In this paper, we propose a framework for implementing batched data-driven evolutionary multi-objective optimization. It is so general that any off-the-shelf evolutionary multi-objective optimization algorithms can be applied in a plug-in manner. In particular, it has two unique components: 1) based on the Karush-Kuhn-Tucker conditions, a manifold interpolation approach that explores more diversified solutions with a convergence guarantee along the manifold of the approximated Pareto-optimal set; and 2) a batch recommendation approach that reduces the computational time of the optimization process by evaluating multiple samples at a time in parallel. Experiments on 136 benchmark test problem instances with irregular Pareto-optimal front shapes against six state-of-the-art surrogate-assisted EMO algorithms fully demonstrate the effectiveness and superiority of our proposed framework. In particular, our proposed framework is featured with a faster convergence and a stronger resilience to various PF shapes.


翻译:多目标优化问题在现实世界科学、工程和设计优化问题中普遍存在。目标功能通常是一个黑盒,其评价通常涉及耗时和(或)昂贵的物理实验。数据驱动的进化优化可用于寻找一套非主导交易解决方案,其中昂贵的客观功能近似于替代模型。在本文件中,我们提出了一个实施分批数据驱动进化多目标优化的框架。它非常普遍,因此任何现成的进化多目标优化算法都可以以插座方式应用。特别是,它有两个独特的组成部分:1)基于Karush-Kuhn-Tucker条件,一种多重的相互调和法方法,探索更加多样化的解决办法,并结合近似Pareto-optmatimes组合的多种组合;以及2)通过同时评估多个样本来减少优化进程的计算时间的分批建议方法。实验了136个基准测试问题案例,有不规则的Paretoimal前端组合,对照我们提议的六州超级化框架,充分展示了我们提议的更高级化和更高级模型。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
110+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
2018机器学习开源资源盘点
专知
6+阅读 · 2019年2月2日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Rectangular Flows for Manifold Learning
Arxiv
0+阅读 · 2021年10月29日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
Top
微信扫码咨询专知VIP会员