来源自:arxiv.com
编辑:DeepRL
时间:2019-11-07
arxiv链接: https://arxiv.org/pdf/1911.00887.pdf
arxiv链接: https://arxiv.org/pdf/1911.00828.pdf
arxiv链接: https://arxiv.org/pdf/1911.01373.pdf
arxiv链接: https://arxiv.org/pdf/1911.01417.pdf
arxiv链接: https://arxiv.org/pdf/1911.00954.pdf
GitHub每日同步更新(欢迎star)
https://github.com/NeuronDance/DeepRL/tree/master/DRL-PaperDaily
微信交流请加助手:NeuronDance(备注:DRL学习)
深度强化学习实验室
算法、框架、资料、前沿信息等
GitHub仓库
https://github.com/NeuronDance/DeepRL
欢迎Fork,Star,Pull Request
第4期论文:2019-11-05(4篇)
第3期论文:2019-11-04(6篇)
第2期论文:2019-11-03(3篇)
第1期论文:2019-11-02(5篇)
第31篇:强化学习,路在何方?
第30篇:强化学习的三种范例
第29篇:框架ES-MAML:进化策略的元学习方法
第28篇:138页“策略优化”PPT--Pieter Abbeel
第27篇:迁移学习在强化学习中的应用及最新进展
第26篇:深入理解Hindsight Experience Replay
第25篇:10项【深度强化学习】赛事汇总
第24篇:DRL实验中到底需要多少个随机种子?
第23篇:142页"ICML会议"强化学习笔记
第22篇:通过深度强化学习实现通用量子控制
第21篇:《深度强化学习》面试题汇总
第20篇:《深度强化学习》招聘汇总(13家企业)
第19篇:解决反馈稀疏问题之HER原理与代码实现
第17篇:AI Paper | 几个实用工具推荐
第16篇:AI领域:如何做优秀研究并写高水平论文?