如何学习良好的潜在表示是现代机器学习时代的一个重要课题。对于强化学习,使用一个好的表示使决策过程更加有效。本次演讲,我将介绍我们的工作,构建基于任务的潜在操作空间,用于基于搜索的黑盒函数优化,寻找策略变更的表示,该表示支持在不完全信息协同博弈中联合策略搜索,以及不同的表示如何影响RL探索。

视频:

https://www.youtube.com/watch?v=sH4a2a0ntUA

成为VIP会员查看完整内容
17

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
116+阅读 · 2021年2月7日
【AAAI2021最佳论文】多智能体学习中的探索 - 利用
专知会员服务
35+阅读 · 2021年2月6日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
127+阅读 · 2020年7月20日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
119+阅读 · 2020年1月15日
UC伯克利Pieter Abbeel谈论强化学习-视频
专知
7+阅读 · 2018年12月17日
一文读懂神经网络(附PPT、视频)
数据派THU
17+阅读 · 2018年3月25日
【强化学习】强化学习+深度学习=人工智能
产业智能官
53+阅读 · 2017年8月11日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
7+阅读 · 2018年5月23日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关VIP内容
「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
116+阅读 · 2021年2月7日
【AAAI2021最佳论文】多智能体学习中的探索 - 利用
专知会员服务
35+阅读 · 2021年2月6日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
127+阅读 · 2020年7月20日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
119+阅读 · 2020年1月15日
微信扫码咨询专知VIP会员