在现实生活中部署人工智能体的一个基本问题是它们快速适应环境的能力。传统的强化学习(RL)以两种方式与这一需求作斗争。首先,对不受约束的环境动态的迭代探索会产生大量信息不足的更新,从而导致适应速度缓慢。其次,最终的策略没有能力适应未来的观察结果,必须随着观察结果的发生缓慢地无限学习或完全重新训练。本文探讨了两种旨在解决这些问题的表述。元强化学习对整个任务分布的考虑使策略能够快速适应特定实例。通过强迫智能体特定地请求反馈,主动强化学习强制进行选择性的观察和更新。这两个公式都简化为贝叶斯-自适应设置,在其中保持对可能环境的概率信念。许多现有的解只提供了在实际环境中使用有限的渐近保证。我们开发了一种近似信念管理的变分方法,并通过广泛的消融实证支持其有效性。然后,我们考虑最近成功的规划方法,但发现和讨论它们在应用到所讨论的设置中的障碍。影响RL系统的数据需求和稳定性的一个重要因素是选择合适的超参数。我们开发了一种贝叶斯优化方法,利用训练过程的迭代结构,其经验性能超过现有基线。本文的最后一个贡献是提高高斯过程(GPs)的可扩展性和表达性。虽然我们没有直接使用现有的框架,但GPs已经被用于在密切相关的设置中建模概率信念。
https://ora.ox.ac.uk/objects/uuid:54963b90-2d7c-41a9-9bf3-065a3097c077