Bayesian optimization (BO) is known as a powerful tool for optimizing an unknown, expensive function through querying the function values sequentially. On the other hand, in many practical problems, additional unknown constraints also need to be considered. In this paper, we propose an information-theoretic approach called Constrained Max-value Entropy Search via Information lower BOund (CMES-IBO) for the constrained BO (CBO). Although information-theoretic methods have been studied in CBO literature, they have not revealed any relation between their acquisition functions and the original mutual information. In contrast, our acquisition function is an unbiased consistent estimator of a lower bound of mutual information. We show that our CMES-IBO has several advantageous properties such as non-negativity, estimation error bounds of the acquisition function, and well-definedness of the criterion, none of which have been shown for the existing information-theoretic CBO. Furthermore, by using conditional mutual information, we extend CMES-IBO to the parallel setting in which multiple queries can be issued simultaneously. We demonstrate the effectiveness of CMES-IBO by several benchmark functions.


翻译:Bayesian优化(BO)被认为是通过相继查询函数值优化一个未知的、昂贵的功能的有力工具。 另一方面,在许多实际问题中,还需要考虑其他未知的制约因素。在本文中,我们建议为受限制的BO(CBO)采用名为“通过信息低端搜索最大值最大元素”的信息理论方法(CMES-IBO)。虽然CBO文献中已经研究了信息理论方法,但它们并未揭示其获取功能与原始相互信息之间的任何关系。相反,我们的获取功能是公正一致的对相互信息的较低约束的估算。我们表明,我们的CMES-IBO具有若干优点性,例如非强化性、估计获取功能的错误界限以及标准的明确性,而现有的信息理论 CBO(CBO)没有显示其中的任何一项。此外,我们通过使用有条件的相互信息,将CMES-IBO扩展为可同时发布多个查询的平行设置。我们通过几个基准功能展示了CMES-IBO的有效性。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
72+阅读 · 2020年5月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
已删除
将门创投
4+阅读 · 2019年6月5日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年8月2日
SepNE: Bringing Separability to Network Embedding
Arxiv
3+阅读 · 2019年2月26日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2018年1月29日
Arxiv
3+阅读 · 2018年1月10日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年6月5日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员