This paper studies regret minimization with randomized value functions in reinforcement learning. In tabular finite-horizon Markov Decision Processes, we introduce a clipping variant of one classical Thompson Sampling (TS)-like algorithm, randomized least-squares value iteration (RLSVI). Our $\tilde{\mathrm{O}}(H^2S\sqrt{AT})$ high-probability worst-case regret bound improves the previous sharpest worst-case regret bounds for RLSVI and matches the existing state-of-the-art worst-case TS-based regret bounds.
翻译:本文在“ 强化学习” 中以随机值函数进行最小化的遗憾研究。 在“ 表格” 中, 我们引入了一个类似“ Thompson ” 的典型的“ Thompson 样式”算法、 “ 随机化最小方程” 值迭代( RLSVI ) 的剪切变式。 我们的$\ tilde\ mathrm{O ⁇ ( (H2S\ sqrt{AT}) $ 高概率最差的“ 最差” 差的“ 遗憾” 组合改善了 RLSVI 之前最差的“ 最差” 的“ 遗憾” 框, 并且符合现有最差的“ TS” 最差的“ 的“ 遗憾” 框。