当环境发生变化,使我们难以实现目标时,我们必须适应。如果我们只能依靠进化来寻找更适合的基因程序,这将是一个极其缓慢的过程。幸运的是,进化“发现”了学习机制,使我们能够利用经验进行适应,形成新的行为来完成当前任务。从表面上看,学习就是这样一个过程:我们变得更擅长执行某项任务。然而,学习往往是缓慢的。而我们却经常处于新的情境之中,不得不重新适应。所幸的是,任务很少完全陌生,而令人惊讶的是,学习某些相似的任务会更容易。在某种程度上,我们能够在不同任务之间发现共通的结构,进而形成泛化能力,并随着时间推移优化我们的学习策略。

本论文旨在研究这些能力如何在神经网络中得以实现。具体来说,我们探讨元学习(meta-learning),即在经历大量具有共享结构的任务过程中,提升学习过程本身的能力。同时,我们还研究如何利用任务之间特定的一种结构形式:组合性(compositionality),即通过一小组基本构件的重组来生成大量不同的任务组合。我们首先回顾本文具体贡献的数学基础,详细阐述如何将神经网络中的元学习形式化为分层优化问题序列建模问题。此外,我们定义了一个任务族具备组合性的含义,并基于此形式化地提出**组合泛化(compositional generalization)**的目标。

在建立了这些基础之后,论文由三部分组成,旨在深化我们对神经网络中元学习与组合泛化的理解。 第一部分中,我们提出了一种简单但精确的元学习算法,基于双层优化(bilevel optimization)。与此前方法需要反向计算时间梯度或二阶导数不同,我们的方法仅需运行两次学习过程,通过对比两次结果并应用局部的元可塑性规则,即可获得元梯度。

第二部分中,我们研究了如何通过模块化结构的神经网络架构进行元学习,从而捕捉任务族中的组合结构。我们从理论上刻画了在何种条件下,超网络(hypernetworks)——即为另一个神经网络生成权重的神经网络——能够保证实现组合性泛化。我们在一系列实验中验证了这些条件,显示在满足这些条件的情况下,模块化(modular)而非单体式(monolithic)架构可以学习能够组合泛化的策略。

第三部分中,我们研究了在 Transformer 中的元学习,具体是在上下文中处理组合任务的能力。我们在形式上建立了 Transformer 的多头注意力机制与超网络之间的联系。这一联系表明 Transformer 可能通过一种隐式超网络的潜在编码(latent code)来重用和重组操作。我们在两个抽象推理任务中实证验证了这一假设,发现所学网络在面对新组合任务时使用的子任务函数与其潜在编码之间存在结构化的功能关系。 总体而言,我们的研究揭示了神经网络在元学习和组合泛化方面的潜力。最后,我们展望了这一研究方向的若干前沿问题,特别是在机器学习与神经科学都在迅猛发展的背景下,神经网络研究所面临的机遇与挑战。

成为VIP会员查看完整内容
0

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【CUHK博士论文】现代机器学习中的因果性学习
专知会员服务
30+阅读 · 1月24日
【阿姆斯特丹博士论文】在视觉挑战条件下的多模态学习
【博士论文】社交与对抗性数据源下的可信机器学习
专知会员服务
18+阅读 · 2024年8月9日
【博士论文】深度神经网络的元学习损失函数,184页pdf
专知会员服务
18+阅读 · 2024年6月17日
【ETHZ博士论文】神经场景表示用于三维重建和场景理解
专知会员服务
36+阅读 · 2024年3月15日
神经网络的基础数学,95页pdf
专知
28+阅读 · 2022年1月23日
基于图神经网络的聚类研究与应用
THU数据派
10+阅读 · 2020年5月29日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
【中科院计算所】图卷积神经网络及其应用
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
28+阅读 · 2018年12月28日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
465+阅读 · 2023年3月31日
Arxiv
169+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关资讯
神经网络的基础数学,95页pdf
专知
28+阅读 · 2022年1月23日
基于图神经网络的聚类研究与应用
THU数据派
10+阅读 · 2020年5月29日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
【中科院计算所】图卷积神经网络及其应用
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
28+阅读 · 2018年12月28日
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员