训练强化学习(RL)系统在实际任务中表现良好是困难的,原因有很多。一个重要的原因是,工程师和应用研究人员面临着大量的设计选择,旨在将现实世界的问题表示为部分可观察马尔可夫决策(POMDP)抽象,这不足以捕捉问题的所有方面。因此,工程师通过试验和错误,优化RL系统设计,直到达到令人满意的性能。这是一个累人、耗时和低效的过程。learn to learn和Auto RL将这个过程的部分自动化,允许用户专注于更高层次的设计问题。在本教程中,我们将回顾当前建立的技术,如环境、算法、表示和奖励学习,并讨论可用的工具、它们如何以及为什么工作,以及它们何时会失败。最后,由于这是一个新兴的领域,我们将总结该领域的未来前景和面临的开放问题。

https://automl.cc/tutorials/

成为VIP会员查看完整内容
66

相关内容

【经典教程】深度学习与信息论,321页ppt
专知会员服务
114+阅读 · 2022年6月13日
UCL& UC Berkeley | 深度强化学习中的泛化研究综述
专知会员服务
60+阅读 · 2021年11月22日
专知会员服务
76+阅读 · 2021年7月23日
【XAUTOML】可解释自动机器学习,27页ppt
专知会员服务
62+阅读 · 2021年4月23日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
Auto-Keras与AutoML:入门指南
云栖社区
16+阅读 · 2019年2月9日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年10月4日
Arxiv
69+阅读 · 2022年6月13日
Arxiv
28+阅读 · 2021年9月18日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
26+阅读 · 2018年8月19日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关基金
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年10月4日
Arxiv
69+阅读 · 2022年6月13日
Arxiv
28+阅读 · 2021年9月18日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
26+阅读 · 2018年8月19日
Arxiv
11+阅读 · 2018年7月31日
微信扫码咨询专知VIP会员