强化学习是一种专注于序贯决策问题的机器学习范式。与机器学习和统计学的其他许多领域一样,数据效率常常是一个核心关注点——也就是说,一个序贯决策代理需要多少试错式的交互数据,才能学会期望的行为?实现高数据效率的强化学习所面临的关键障碍之一是“探索”的挑战:代理需要在获取环境新知识与利用当前知识以实现近期性能最大化之间进行权衡。
传统关于探索与利用之间权衡的文献,主要聚焦于那些代理能够在可接受的时间范围内接近最优性能的环境。然而,现代的人工决策代理往往面临更加复杂的环境,例如万维网,在这类环境中,期望在任何现实的时间尺度内接近最优表现几乎是不可能的。
本论文的研究重点在于提出一套有理论依据且具有实践可行性的探索策略,用以应对复杂环境中的探索问题。我们的方法基于一个简单但深刻的观察:面对复杂环境时,代理无需试图获取实现最优行为所需的全部信息,而应转而追求一组“适度”的信息。这些信息虽不足以支持近乎最优的表现,但足以推动行为的持续改进。 我们设计了一种代理,其探索策略围绕上述思想展开,并从理论和实证两个角度对其行为进行了分析。实际上,该代理在每一个时间步骤上都在进行“学什么”的决策,以在信息需求和性能之间实现期望的权衡。 正如本论文所阐明的,构建此类代理的核心思想,源于信息论与有损压缩中的经典工具。这些工具不仅为我们提供了理论上的严谨性保证,也具备良好的可扩展性,使得在实际系统中部署成为可能。