资源标题

强化学习整合:Awesome Reinforcement Learning

资源列表

  • 代码
  • 理论研究
  • 应用
  • 教程
  • 在线样例
  • 开源强化学习平台
成为VIP会员查看完整内容
0
45

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

We present CURL: Contrastive Unsupervised Representations for Reinforcement Learning. CURL extracts high-level features from raw pixels using contrastive learning and performs off-policy control on top of the extracted features. CURL outperforms prior pixel-based methods, both model-based and model-free, on complex tasks in the DeepMind Control Suite and Atari Games showing 1.9x and 1.6x performance gains at the 100K environment and interaction steps benchmarks respectively. On the DeepMind Control Suite, CURL is the first image-based algorithm to nearly match the sample-efficiency and performance of methods that use state-based features.

0
11
下载
预览

Active learning from demonstration allows a robot to query a human for specific types of input to achieve efficient learning. Existing work has explored a variety of active query strategies; however, to our knowledge, none of these strategies directly minimize the performance risk of the policy the robot is learning. Utilizing recent advances in performance bounds for inverse reinforcement learning, we propose a risk-aware active inverse reinforcement learning algorithm that focuses active queries on areas of the state space with the potential for large generalization error. We show that risk-aware active learning outperforms standard active IRL approaches on gridworld, simulated driving, and table setting tasks, while also providing a performance-based stopping criterion that allows a robot to know when it has received enough demonstrations to safely perform a task.

0
4
下载
预览
小贴士
相关VIP内容
专知会员服务
179+阅读 · 2020年5月8日
专知会员服务
90+阅读 · 2020年2月1日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
147+阅读 · 2020年1月13日
专知会员服务
61+阅读 · 2019年12月24日
MIT新书《强化学习与最优控制》
专知会员服务
134+阅读 · 2019年10月9日
相关资讯
【资源】强化学习实践教程
专知
39+阅读 · 2019年9月11日
元学习(Meta Learning)最全论文、视频、书籍资源整理
深度学习与NLP
17+阅读 · 2019年6月20日
强化学习资源列表,Updating...
机器学习算法与Python学习
12+阅读 · 2018年12月30日
548页MIT强化学习教程,收藏备用【PDF下载】
机器学习算法与Python学习
6+阅读 · 2018年10月11日
<好书推荐> -《Pro Deep Learning with TensorFlow》分享
深度学习与NLP
9+阅读 · 2018年9月13日
李宏毅-201806-中文-Deep Reinforcement Learning精品课程分享
深度学习与NLP
13+阅读 · 2018年6月20日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
关于强化学习(附代码,练习和解答)
深度学习
23+阅读 · 2018年1月30日
Deep Reinforcement Learning 深度增强学习资源
数据挖掘入门与实战
5+阅读 · 2017年11月4日
相关论文
Aravind Srinivas,Michael Laskin,Pieter Abbeel
11+阅读 · 2020年4月28日
Few-shot Learning: A Survey
Yaqing Wang,Quanming Yao
316+阅读 · 2019年4月10日
Playing Text-Adventure Games with Graph-Based Deep Reinforcement Learning
Prithviraj Ammanabrolu,Mark O. Riedl
4+阅读 · 2019年3月25日
Risk-Aware Active Inverse Reinforcement Learning
Daniel S. Brown,Yuchen Cui,Scott Niekum
4+阅读 · 2019年1月8日
Tuomas Haarnoja,Aurick Zhou,Sehoon Ha,Jie Tan,George Tucker,Sergey Levine
5+阅读 · 2018年12月26日
Jingkang Wang,Yang Liu,Bo Li
3+阅读 · 2018年10月5日
Hierarchical Deep Multiagent Reinforcement Learning
Hongyao Tang,Jianye Hao,Tangjie Lv,Yingfeng Chen,Zongzhang Zhang,Hangtian Jia,Chunxu Ren,Yan Zheng,Changjie Fan,Li Wang
6+阅读 · 2018年9月25日
Antoine J. -P. Tixier
10+阅读 · 2018年8月30日
Seyed Sajad Mousavi,Michael Schukat,Enda Howley
12+阅读 · 2018年6月23日
Abhishek Gupta,Benjamin Eysenbach,Chelsea Finn,Sergey Levine
6+阅读 · 2018年6月12日
Top