AAAI2022最新「贝叶斯优化」教程报告,230+页PPT阐述BO基础到高级主题

2022 年 3 月 8 日 专知

【导读】国际人工智能会议AAAI 2022论文将在全程线上举办,时间在 2 月 22 日-3 月 1 日,本届大会也将是第 36 届 AAAI 大会。大会涵盖了众多最近研究Tutorial报告,来自Jana Doppa等学者共同做了关于贝叶斯优化的进展报告,非常值得关注!




许多工程和科学应用,包括自动机器学习(例如,神经结构搜索和超参数调优),都需要做出设计选择,以优化一个或多个昂贵的评估目标。一些例子包括调整编译器的旋钮,以优化一组软件程序的性能和效率; 设计新材料以优化强度、弹性和耐久性;并设计硬件优化性能,功率和面积。贝叶斯优化(BO)是一种有效的框架,用于解决函数求值昂贵的黑盒优化问题。BO的核心思想是利用真实的实验数据建立一个廉价的替代统计模型(如高斯过程);并利用它来智能地选择实验序列或使用采集函数的功能评估,例如期望改进(EI)和上置信度界限(UCB)。对于连续输入空间,在单保真度设置(即,实验昂贵且函数评估准确)的单目标优化中,有大量关于BO的工作。然而,BO近年来的工作已经集中在更具挑战性的问题设置,包括多目标优化;利用多保真度函数评估进行优化(不同的资源成本和评估的准确性);用黑盒约束优化应用到安全;组合空间的优化(例如,序列、树和图);混合空间(离散和连续输入变量的混合)的优化。本教程的目标是通过关注挑战、原则、算法思想和它们的连接,以及重要的现实世界应用,从基础到这些最新进展,呈现BO的全面调研。


目录内容:


0. Big Picture of Bayesian Optimization (BO) | Slides

  1. Motivation from real-world applications

  2. Challenges of optimizing expensive black-box functions

  3. Overview of Bayesian optimization

  4. Three key elements: statistical model, acquisition function (AF), and acquisition function optimizer (AFO)

1. Foundations of BO | Slides

  1. Background on Gaussian Processes (GPs)

    1. Two views of GPs: weight space and function space

    2. Learning and inference with GPs

    3. Scalability challenges and solutions

  2. Background on Acquisition Functions (AFs)

    1. Exploration vs. Exploitation trade-off

    2. Example AFs: Expected improvement (EI), Upper confidence bound (UCB), Thompson Sampling (TS), and Information-theoretic methods

    3. Optimizers: DIRECT, gradient-based methods, and evolutionary search

2. BO over Combinatorial Spaces | Slides

  1. Motivating Applications

    1. Manycore systems design

    2. Biological sequence design

    3. Drug/Vaccine/Molecule design

  2. Key Challenges

    1. Effective surrogate models for combinatorial structures (e.g., sequences, trees, graphs)

    2. Trading-off complexity of statistical model and tractability of AFO

  3. BO Methods over Original Space

    1. Simple models and tractable AFO

    2. Complex models and heuristic search

    3. Complex models and tractable search

    4. Complex models and effective search via learning-to-search

  4. BO Methods over Latent Continuous Space

    1. Advantages of reduction to BO over continuous space

    2. Deep generative models for learning latent space

    3. Challenges of BO over latent space: valid structures, high-dimensionality, imperfect decoder

    4. Recent algorithmic advances: weighted re-training, LADDER, and high-dimensional BO

3. BO over Hybrid Spaces | Slides

  1. Motivating Applications

    1. Material design

    2. Microbiome design

    3. Auto ML tasks

  2. Key Challenges

    1. Effective surrogate models for hybrid structures

    2. Trading-off complexity of statistical model and tractability of AFO

  3. BO Methods over Original Space

    1. Simple models and tractable AFO

    2. Complex models and heuristic search

4. Multi-fidelity BO | Slides

  1. Background on Multi-fidelity optimization

    1. Function approximations (fidelities) with varying cost and accuracy of evaluation

    2. Discrete fidelity vs. Continuous fidelity

    3. Example real-world applications (e.g., Auto ML)

  2. Key Challenges

    1. Surrogate modeling of multiple fidelity functions and information sharing

    2. Selection of input and fidelity pair in each BO iteration

  3. BO Algorithms

    1. Simple and Information-theoretic methods

5. Constrained BO | Slides

  1. Background on Constrained Optimization

    1. Valid vs. Invalid inputs via constraints

    2. Black-box constraints

    3. Example real-world applications (e.g., design of safe and effective vaccines/drugs)

  2. Key Challenges

    1. Modeling black-box constraints

    2. Reasoning with learned model over constraints

  3. BO Algorithms

    1. Simple and Information-theoretic methods

6. Multi-objective BO | Slides

  1. Motivating Applications

    1. Hardware design to trade-off power and performance

    2. Drug/Vaccine design to trade-off efficacy, safety, and cost

  2. Background on Multi-Objective Optimization

    1. Optimal Pareto set

    2. Optimal Pareto front

  3. BO Algorithms

    1. Simple methods

    2. Information-theoretic methods

    3. Differentiable expected hypervolume improvement

  4. Multi-Fidelity BO Algorithms

  5. Constrained BO Algorithms

7. Outstanding Challenges and Frontiers of BO | Slides


地址:

https://bayesopt-tutorial.github.io/


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“BO230” 可以获取AAAI2022最新「贝叶斯优化」教程报告,230+页PPT阐述BO基础到高级主题专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
3

相关内容

LinkedIn《贝叶斯优化推荐系统》,IJCAI报告,142页ppt
专知会员服务
51+阅读 · 2021年1月11日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
13+阅读 · 2008年12月31日
Verified Compilation of Quantum Oracles
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Risk and optimal policies in bandit experiments
Arxiv
0+阅读 · 2022年4月18日
Warped Dynamic Linear Models for Time Series of Counts
Arxiv
0+阅读 · 2022年4月15日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
13+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员