强化学习(RL)的一个主要挑战是在探索环境以收集信息和利用到目前为止观察到的样本来执行“好的”(近乎最佳的)行动之间进行权衡。在本研讨会中,我们将回顾在连续状态-动作空间中如何将探索技术与函数近似相结合。我们将特别关注探索机制与深度学习技术的整合。研讨会应提供足够的理论和算法背景,以了解现有的技术,并可能设计新的方法。在整个讲座中,我们将讨论开放性问题和未来可能的研究方向。

https://rl-vs.github.io/rlvs2021/exploration.html

成为VIP会员查看完整内容
38

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
61+阅读 · 2021年4月22日
专知会员服务
57+阅读 · 2021年4月7日
【NeurIPS 2020】近似推断进展,272页ppt
专知会员服务
32+阅读 · 2020年12月11日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
【Google】梯度下降,48页ppt
专知会员服务
80+阅读 · 2020年12月5日
Google最新《机器学习对偶性》报告,48页ppt
专知会员服务
35+阅读 · 2020年11月29日
【康奈尔】最新《强化学习基础》CS 6789课程
专知会员服务
67+阅读 · 2020年9月27日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
图神经网络推理,27页ppt精炼讲解
专知
3+阅读 · 2020年4月24日
AlphaGo之父David Silver最新演讲,传授强化学习的十大原则
强化学习十大原则
专知
12+阅读 · 2018年9月17日
【干货】强化学习介绍
专知
12+阅读 · 2018年6月24日
【强化学习】强化学习+深度学习=人工智能
产业智能官
53+阅读 · 2017年8月11日
Arxiv
0+阅读 · 2021年5月31日
Arxiv
9+阅读 · 2021年2月8日
Arxiv
5+阅读 · 2021年2月8日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
VIP会员
相关VIP内容
专知会员服务
61+阅读 · 2021年4月22日
专知会员服务
57+阅读 · 2021年4月7日
【NeurIPS 2020】近似推断进展,272页ppt
专知会员服务
32+阅读 · 2020年12月11日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
【Google】梯度下降,48页ppt
专知会员服务
80+阅读 · 2020年12月5日
Google最新《机器学习对偶性》报告,48页ppt
专知会员服务
35+阅读 · 2020年11月29日
【康奈尔】最新《强化学习基础》CS 6789课程
专知会员服务
67+阅读 · 2020年9月27日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
微信扫码咨询专知VIP会员