近年来,机器学习领域广泛采用大型基础模型(foundation models)。尽管这些模型具有很强的表达能力,但在针对有限的领域特定数据集进行训练时,仍容易出现过拟合。因此,在数据稀缺的场景下,借助更大但间接相关的数据集进行训练以提取有用的表征,以及更一般意义上的“元学习”(meta-learning),已成为高效使用此类模型的关键。本论文从理论角度研究了元学习背后的基本假设,聚焦于两个设置:

元监督学习(Meta-Supervised Learning)。已有研究分析了在多个回归任务上学习固定表征的统计复杂度。然而,在实际应用中,包括 MAML 等主流梯度方法在内的大多数方法都会为每个任务微调(fine-tune)表征。因此,我们开展了首个关于基于微调的表征学习的理论研究。首先,我们对一类通用表征上的代表性训练过程推导了样本复杂度上界。其次,我们建立了“可微调表征”与“固定表征”之间的样本复杂度差异,从而揭示了在哪些情形下微调更为优越。

元强化学习(Meta-Reinforcement Learning, Meta-RL)。在元强化学习中,任务之间存在多种共享结构的可能性,例如分层强化学习(HRL)中的“选项”(options)结构。但已有的 HRL 后悔值(regret)界分析往往假设分层结构已知。为弥补这一空白,我们构造了一种在满足适当“覆盖条件”下可被理论保证恢复的分层结构。进一步地,我们证明,在较弱假设下,该恢复的结构可以显著提升下游任务的学习表现,使其后悔值优于最小最大策略(minimax)指数级别。这些覆盖条件涵盖了时间、状态/动作的抽象等概念,表明我们的分析能够捕捉 HRL 在实践中的关键要素。

成为VIP会员查看完整内容
1

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
【阿姆斯特丹博士论文】在视觉挑战条件下的多模态学习
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
47+阅读 · 2024年5月12日
【ETHZ博士论文】在弱监督学习中施加和揭示群组结构
专知会员服务
21+阅读 · 2023年10月15日
【UFPE大学博士论文】基于熵损失的鲁棒深度学习
专知会员服务
42+阅读 · 2022年11月11日
【港科大博士论文】高效迁移学习的低资源自然语言理解
数据受限条件下的多模态处理技术综述
专知
20+阅读 · 2022年7月16日
综述| 当图神经网络遇上强化学习
图与推荐
34+阅读 · 2022年7月1日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
深度学习时代的目标检测算法
炼数成金订阅号
39+阅读 · 2018年3月19日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
469+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
170+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
相关资讯
数据受限条件下的多模态处理技术综述
专知
20+阅读 · 2022年7月16日
综述| 当图神经网络遇上强化学习
图与推荐
34+阅读 · 2022年7月1日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
深度学习时代的目标检测算法
炼数成金订阅号
39+阅读 · 2018年3月19日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
相关论文
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
469+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
170+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
微信扫码咨询专知VIP会员