近年来,强化学习(RL)的经验研究取得了越来越多的成功。然而,关于学习能力的许多理论问题并没有得到很好的理解。例如,要学习一个好的策略,需要多少观察?马尔可夫决策过程(MDP)中函数近似在线学习的遗憾之处是什么?从未知行为策略生成的日志历史记录中,我们如何最优地估计新策略的价值?在本次演讲中,我将回顾一些最近研究这些问题的成果,如从生成模型求解MDP的最小轴最优样本复杂性,通过回归的最小轴最优非策略评估,以及使用非参数模型估计的在线RL的遗憾。
http://www.ipam.ucla.edu/abstract/?tid=16408&pcode=LCO2020