We introduce learning and planning algorithms for average-reward MDPs, including 1) the first general proven-convergent off-policy model-free control algorithm without reference states, 2) the first proven-convergent off-policy model-free prediction algorithm, and 3) the first off-policy learning algorithm that converges to the actual value function rather than to the value function plus an offset. All of our algorithms are based on using the temporal-difference error rather than the conventional error when updating the estimate of the average reward. Our proof techniques are a slight generalization of those by Abounadi, Bertsekas, and Borkar (2001). In experiments with an Access-Control Queuing Task, we show some of the difficulties that can arise when using methods that rely on reference states and argue that our new algorithms can be significantly easier to use.
翻译:我们引入了平均回报 MDP 的学习和规划算法, 包括:(1) 第一种经证实的、 一致的无政策模式控制算法,没有参考状态;(2) 第一种经证明的、相互一致的无政策模式预测算法;(3) 第一种与实际价值函数一致而非与价值函数加一个抵消的离政策学习算法。 我们所有的算法都基于使用时间差异错误,而不是更新平均奖励估计值时的传统错误。 我们的验证技术是Abounadi、Bertsekas和Borkar(2001年)对Abounadi、Bertsekas和Borkar(2001年)的略微的概括化技术。 在使用访问控制调用任务实验中,我们展示了在使用依赖参考参数的各种方法时可能出现的一些困难,并论证我们的新算法可以大大容易使用。