来源自:arxiv.com
编辑:DeepRL
时间:2019-12-13
arxiv链接: https://arxiv.org/pdf/1912.01557.pdf
arxiv链接: https://arxiv.org/pdf/1912.01715.pdf
arxiv链接: https://arxiv.org/pdf/1912.02532.pdf
arxiv链接: https://arxiv.org/pdf/1912.02532.pdf
arxiv链接: https://arxiv.org/pdf/1912.02975.pdf
arxiv链接: https://arxiv.org/pdf/1912.02875.pdf
arxiv链接: https://arxiv.org/pdf/1912.04002.pdf
arxiv链接: https://arxiv.org/pdf/1912.05104.pdf
GitHub每日同步更新(欢迎star)
https://github.com/NeuronDance/DeepRL/tree/master/DRL-PaperDaily
第37篇:从Paper到Coding, 一览DRL挑战34类游戏
第36篇:复现"深度强化学习"论文的经验之谈
第35篇:α-Rank算法之DeepMind及Huawei的改进
第34篇:DeepMind-102页深度强化学习PPT(2019)
第31篇:强化学习,路在何方?
第30篇:强化学习的三种范例
第29篇:框架ES-MAML:进化策略的元学习方法
第28篇:138页“策略优化”PPT--Pieter Abbeel
第27篇:迁移学习在强化学习中的应用及最新进展
第26篇:深入理解Hindsight Experience Replay
第25篇:10项【深度强化学习】赛事汇总
第24篇:DRL实验中到底需要多少个随机种子?
第23篇:142页"ICML会议"强化学习笔记
第22篇:通过深度强化学习实现通用量子控制
第21篇:《深度强化学习》面试题汇总
第20篇:《深度强化学习》招聘汇总(13家企业)
第19篇:解决反馈稀疏问题之HER原理与代码实现
第17篇:AI Paper | 几个实用工具推荐
第16篇:AI领域:如何做优秀研究并写高水平论文?
第9期论文:2019-12-3(3篇)
第8期论文:2019-11-18(5篇)
第7期论文:2019-11-15(6篇)
第6期论文:2019-11-08(2篇)
第5期论文:2019-11-07(5篇,一篇DeepMind发表)
第4期论文:2019-11-05(4篇)
第3期论文:2019-11-04(6篇)
第2期论文:2019-11-03(3篇)
第1期论文:2019-11-02(5篇)
深度强化学习实验室
算法、框架、资料、前沿信息等
GitHub仓库
https://github.com/NeuronDance/DeepRL
欢迎Fork,Star,Pull Reques