Bayesian optimization is a form of sequential design: idealize input-output relationships with a suitably flexible nonlinear regression model; fit to data from an initial experimental campaign; devise and optimize a criterion for selecting the next experimental condition(s) under the fitted model (e.g., via predictive equations) to target outcomes of interest (say minima); repeat after acquiring output under those conditions and updating the fit. In many situations this "inner optimization" over the new-data acquisition criterion is cumbersome because it is non-convex/highly multi-modal, may be non-differentiable, or may otherwise thwart numerical optimizers, especially when inference requires Monte Carlo. In such cases it is not uncommon to replace continuous search with a discrete one over random candidates. Here we propose using candidates based on a Delaunay triangulation of the existing input design. In addition to detailing construction of these "tricands", based on a simple wrapper around a conventional convex hull library, we promote several advantages based on properties of the geometric criterion involved. We then demonstrate empirically how tricands can lead to better Bayesian optimization performance compared to both numerically optimized acquisitions and random candidate-based alternatives on benchmark problems.


翻译:Bayesian优化是一种顺序设计形式:将输入-输出关系与适当灵活的非线性回归模型理想化;适合初始实验运动的数据;适合初始实验运动的数据;设计和优化一个标准,用于选择在符合适用模型(例如,通过预测方程)下下一个实验条件,以达到感兴趣的结果(例如,微型方程)为目标(例如,微型方程);在根据这些条件获得输出并更新适应性之后重复;在许多情况下,新数据获取标准的“内在优化”是累赘的,因为它是非连接/高度多式的多式的,可能是不可区分的,或者可能阻碍数字优化,特别是在推断需要蒙特卡洛的情况下。在这种情况下,用离散的随机候选人取代连续搜索并不常见。我们在这里提议根据现有投入设计Delaunay三角图使用候选人。除了详细描述这些“母体优化”的构造外,我们还根据一个常规的 convex船体库库库库库的特性,促进若干优势,可能无法区分,或者可能妨碍数字性优化的优化,特别是在推断需要蒙特卡洛的情况下。我们随后从实验性的角度展示如何将随机性最佳的替代方法转化为候选人的升级。

0
下载
关闭预览

相关内容

ICLR 2022 评审出炉!来看看得分最高8份的31篇论文是什么!
【图与几何深度学习】Graph and geometric deep learning,49页ppt
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
已删除
将门创投
3+阅读 · 2018年3月13日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年2月16日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关VIP内容
ICLR 2022 评审出炉!来看看得分最高8份的31篇论文是什么!
【图与几何深度学习】Graph and geometric deep learning,49页ppt
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
已删除
将门创投
3+阅读 · 2018年3月13日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员