在本教程的第一部分中,我们将概述强化学习中的关键概念,涵盖神经科学和机器学习中的RL的历史。我们将从早期的奖励动机行为的基本模型开始,因为它们应用于动物和机器学习。我们将讨论这些模型如何通过与丰富的特征和结构化世界模型的接口变得更加丰富,以及这些方法如何应用于复杂行为的分析和神经计算。**最后,我们将讨论这些想法如何在深度RL中最先进的方法中体现出来。**在本教程的后半部分,我们将进行一个编码练习,对RL智能体进行编码,并提取激活值,以与神经活动进行比较。
Kimberly Stachenfeld是DeepMind的研究科学家。她的研究涵盖了计算神经科学和机器学习的主题,并专注于如何学习结构化的、具有表现力的世界模型的一般问题,以实现灵活的推理。在机器学习中,她对使用图神经网络学习的前向模型的方法和应用特别感兴趣,在神经科学中,她主要研究高效、可扩展的强化学习的海马体表示数学模型。她于2018年获得普林斯顿大学计算神经科学博士学位,以及学士/学士学位2013年毕业于塔夫茨大学数学/化学和生物工程专业。