DeepMind用强化学习探索大脑多巴胺对学习的作用

2018 年 5 月 15 日 新智元 新智元





  新智元报道  

来源:DeepMind

编辑:肖琴


【新智元导读】继上周在 Nature 发表极受关注的“网格细胞”研究后,DeepMind今天又在《自然-神经科学》发表一篇重磅论文:利用强化学习探索多巴胺对学习的作用,发现AI的学习方式与神经科学实验中动物的学习方式类似。该研究提出的理论可以解释神经科学和心理学中的许多神秘发现。



AI系统已经掌握了多种电子游戏,如雅达利经典的“突出重围”(Breakout)和“乒乓球”(Pong)游戏。但尽管AI在玩游戏方便的表现令人印象深刻,它们仍然是依靠相当于数千小时的游戏时间训练,才达到或超越人类的水平。相比之下,我们人类通常只花几分钟就能掌握一款我们从未玩过的电子游戏的基础知识。


为什么只有这么少的先验知识,人类的大脑却能做这么多的事情呢?这就引出了“元学习”(meta-learning)的理论,或者说“学习如何学习”(learning to learn)。人们认为,人是在两个时间尺度上学习的——在短期,我们专注于学习具体的例子;而在较长的时间尺度,我们学习完成一项任务所需的抽象技能或规则。正是这种组合被认为有助于人高效地学习,并将这些知识快速灵活地应用于新任务。


在 AI 系统中重建这种元学习结构——称为元强化学习(meta-reinforcement learning)——已经被证明能够促进智能体(agents)快速、one-shot的学习。这方面的研究已经有很多,例如DeepMind的论文“Learning to reinforcement learn”和OpenAI的“RL²: Fast Reinforcement Learning via Slow Reinforcement Learning”。然而,促使这个过程在大脑中发生的具体机制是怎样的,这在神经科学中大部分仍未得到解释。


今天,DeepMind在《自然-神经科学》(Nature Neuroscience)发表的新论文中,研究人员使用AI研究中开发的元强化学习框架来探索多巴胺在大脑中帮助我们学习时所起的作用。论文题为:Prefrontal cortex as a meta-reinforcement learning system



多巴胺——通常被称为大脑的愉悦因子——被认为与AI强化学习算法中使用的奖励预测误差信号类似。AI系统通过奖励(reward)指引的试错来学习如何行动。研究者认为,多巴胺的作用不仅仅是利用奖励来学习过去行为的价值,而且,多巴胺在大脑的前额叶皮层区扮演者不可或缺的角色,使我们能够高效、快速、灵活地学习新任务。


模拟agent的奖励预测误差反映了推断值,而不仅仅是经验值,类似于在猴子中观察到的。


DeepMind的研究人员通过模拟重建神经科学领域的6个元学习实验来测试他们的理论——每个实验都要求一个agent执行任务,这些任务使用相同的基础原则(或同一套技能),但在某些方面有所不同。


我们使用标准深度强化学习技术(代表多巴胺的作用)训练了一个循环神经网络(代表前额叶皮质),然后将这个循环网络的活动状态与之前在神经科学实验中得到的实际数据进行比较。对于元学习来说,循环网络是一个很好的代理,因为它们能够将过去的行为和观察内在化,然后在训练各种各样的任务时借鉴这些经验。


我们重建的一个实验叫做Harlow实验,这是20世纪40年代的一个心理学实验,用于探索元学习的概念。在原版的测试中,一组猴子被展示两个不熟悉的物体,只有其中一个会给他们食物奖励。两个物体一共被展示了6次,每次的左右放置都是随机的,所以猴子必须要知道哪个会给它们食物奖励。然后,他们再次被展示另外两个新的物体,同样,只有其中一个会给它们食物。


在这个训练过程中,猴子发展出一种策略来选择能得到奖励的物体:它学会了在第一次的时候随机选择,然后,下一次根据奖励的反馈选择特定的对象,而不是从左到右选择。这个实验表明,猴子可以将任务的基本原理内化,学会一种抽象的规则结构——实际上就是学会了如何学习。


meta-RL 的架构


当我们使用虚拟的计算机屏幕和随机选择的图像来模拟一个非常相似的测试时,我们发现,我们的“元强化学习智能体”(meta-RL agent)似乎是以类似于Harlow实验中的动物的方式在学习,甚至在被显示以前从未见过的全新图像时也是如此。


在模拟的Harlow实验中,agent必须将它的视线转向它认为能得到奖励的对象


实际上,我们发现meta-RL agent可以学习如何快速适应规则和结构不同的各种任务。而且,由于网络学会了如何适应各种任务,它也学会了关于如何有效学习的一般原则


很重要的一点是,我们发现大部分的学习发生在循环网络中,这支持了我们的观点,即多巴胺在元学习过程中的作用比以前人们认为的更为重要。传统上,多巴胺被认为能够加强前额叶系统的突触连接,从而强化特定的行为。


在AI中,这意味着类多巴胺的奖励信号在神经网络中调整人工突触的权重,因为它学会了解决任务的正确方法。然而,在我们的实验中,神经网络的权重被冻结,这意味着在学习过程中权重不能被调整。但是,meta-RL agent仍然能够解决并适应新的任务这表明,类多巴胺的奖励不仅用于调整权重,而且还能传递和编码有关抽象任务和规则结构的重要信息,从而加快对新任务的适应。


Meta-RL在视觉丰富的3D环境中学习抽象结构和新的刺激


长期以来,神经科学家在大脑的前额叶皮质中观察到类似的神经活动模式,这种模式能够快速适应,而且很灵活,但一直以来科学家难以找到能够解释为什么会这样的充分理由。前额叶皮层不依赖突触重量的缓慢变化来学习规则结构,而是使用直接编码在多巴胺上的、抽象的基于模式的信息,这一观点提供了一个更令人信服的解释。


为了证明AI中存在的引起元强化学习的关键因素也存在于大脑中,我们提出了一个理论,该理论不仅与已知的关于多巴胺和前额叶皮层的了解相符,而且可以解释神经科学和心理学中的许多神秘发现。特别是,该理论对了解大脑中结构化的、基于模式的学习是如何出现的,为什么多巴胺本身包含有基于模式的信息,以及前额叶皮质中的神经元是如何调整为与学习相关的信号等问题提出了新的启发。


来自AI研究的见解可以用于解释神经科学和心理学的发现,这强调了,一个研究领域的价值可以提供给另一个领域。展望未来,我们期望能从反过来的方向得到更多益处,通过在为强化学习智能体的学习设计新的模型时,从特定脑回路组织得到启发。





【加入社群】


新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号: aiera2015_3  入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。


登录查看更多
0

相关内容

【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
强化学习的未来——第一部分
AI研习社
9+阅读 · 2019年1月2日
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
论强化学习的根本缺陷
AI科技评论
11+阅读 · 2018年7月24日
DeepMind发布《星际争霸 II》深度学习环境
人工智能学家
8+阅读 · 2017年9月22日
【强化学习】如何开启强化学习的大门?
产业智能官
13+阅读 · 2017年9月10日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
Arxiv
5+阅读 · 2018年6月5日
VIP会员
相关资讯
强化学习的未来——第一部分
AI研习社
9+阅读 · 2019年1月2日
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
论强化学习的根本缺陷
AI科技评论
11+阅读 · 2018年7月24日
DeepMind发布《星际争霸 II》深度学习环境
人工智能学家
8+阅读 · 2017年9月22日
【强化学习】如何开启强化学习的大门?
产业智能官
13+阅读 · 2017年9月10日
Top
微信扫码咨询专知VIP会员