记忆池」是深度强化学习的基本部件,但多年以来如何最优利用记忆池仍然未知。

在刚刚闭幕的机器学习国际顶级会议NeurIPS 2021上,南京大学人工智能学院独立完成的工作「Regret Minimization Experience Replay in Off-Policy Reinforcement Learning」,首次揭示了深度强化学习「记忆池」的最优利用方法。

https://openreview.net/forum?id=5AixAJweEyC

该工作由俞扬教授指导,其共同第一作者,2018级本科生薛正海,是南大人工智能学院的首届本科生。

成为VIP会员查看完整内容
23

相关内容

【NeurIPS 2021】多视角对比图聚类
专知会员服务
35+阅读 · 2021年10月31日
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
166+阅读 · 2021年8月3日
专知会员服务
27+阅读 · 2020年12月15日
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
27+阅读 · 2020年7月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
周志华教授:如何做研究与写论文?
专知会员服务
153+阅读 · 2019年10月9日
强化学习 DQN 初探之2048
DataFunTalk
7+阅读 · 2019年12月10日
ICLR 2020 高质量强化学习论文汇总
极市平台
12+阅读 · 2019年11月11日
基于逆强化学习的示教学习方法综述
计算机研究与发展
14+阅读 · 2019年2月25日
逆强化学习几篇论文笔记
CreateAMind
9+阅读 · 2018年12月13日
OpenAI官方发布:强化学习中的关键论文
专知
14+阅读 · 2018年12月12日
论强化学习的根本缺陷
AI科技评论
11+阅读 · 2018年7月24日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
1+阅读 · 2022年2月17日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
VIP会员
相关VIP内容
【NeurIPS 2021】多视角对比图聚类
专知会员服务
35+阅读 · 2021年10月31日
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
166+阅读 · 2021年8月3日
专知会员服务
27+阅读 · 2020年12月15日
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
27+阅读 · 2020年7月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
周志华教授:如何做研究与写论文?
专知会员服务
153+阅读 · 2019年10月9日
相关资讯
强化学习 DQN 初探之2048
DataFunTalk
7+阅读 · 2019年12月10日
ICLR 2020 高质量强化学习论文汇总
极市平台
12+阅读 · 2019年11月11日
基于逆强化学习的示教学习方法综述
计算机研究与发展
14+阅读 · 2019年2月25日
逆强化学习几篇论文笔记
CreateAMind
9+阅读 · 2018年12月13日
OpenAI官方发布:强化学习中的关键论文
专知
14+阅读 · 2018年12月12日
论强化学习的根本缺陷
AI科技评论
11+阅读 · 2018年7月24日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
微信扫码咨询专知VIP会员