元学习旨在从历史任务中提取共享知识(元知识),以加速新任务的学习。在各种应用中,它已经取得了令人鼓舞的表现,并且开发了许多元学习算法来学习包含元知识的元模型(例如,元初始化/元正则化),以支持特定任务的学习过程。本文的重点是复杂任务下的元学习,因此,特定任务的知识是多样化的,且需要各种元知识。

首先,我们通过核化近端正则化将线性模型的有效元正则化扩展到非线性模型,从而使得像深度网络这样更强大的模型能够处理复杂任务。 其次,我们将特定任务的模型参数形式化为一个子空间混合,并提出了一种模型无关的元学习算法来学习子空间基。每个子空间代表一种类型的元知识,结构化的元知识比简单的元模型更有效地加速复杂任务的学习。 第三,我们提出了一种高效且参数优化的元学习算法,用于自然语言处理任务中的提示调优。该算法学习一组多个元提示,从元训练任务中提取元知识,然后通过注意力机制将所有元提示的加权组合构建为实例依赖的提示。实例依赖的提示具有灵活性和强大功能,能够有效地处理复杂任务的提示。 接下来,我们使用大语言模型(LLM)研究数学推理任务。为了验证由LLM生成的候选答案,我们提出将前向和后向推理的元知识结合起来。 最后,我们提出了问题增强方法,通过扩展问题集来训练LLM,从而增强LLM的数学推理元知识。原始问题通过两个方向进行增强:在前向方向,我们通过少样本提示重新表述问题;在后向方向,我们对问题中的数字进行掩蔽,并创建一个反向问题,通过答案预测被掩蔽的数字。

成为VIP会员查看完整内容
8

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【博士论文】深度生成表示学习
专知会员服务
23+阅读 · 1月13日
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
【MIT博士论文】理解与提升机器学习模型的表征鲁棒性
专知会员服务
26+阅读 · 2024年8月26日
【MIT博士论文】合成数据的视觉表示学习
专知会员服务
23+阅读 · 2024年8月25日
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
47+阅读 · 2024年5月12日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
23+阅读 · 2022年10月8日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
17+阅读 · 2020年6月26日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
162+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
423+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2023年3月26日
Arxiv
152+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【博士论文】深度生成表示学习
专知会员服务
23+阅读 · 1月13日
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
【MIT博士论文】理解与提升机器学习模型的表征鲁棒性
专知会员服务
26+阅读 · 2024年8月26日
【MIT博士论文】合成数据的视觉表示学习
专知会员服务
23+阅读 · 2024年8月25日
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
47+阅读 · 2024年5月12日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
23+阅读 · 2022年10月8日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
相关资讯
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
17+阅读 · 2020年6月26日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员