多任务学习(Multi-task learning, MTL)旨在通过对多个相关任务的联合学习来提高任务的泛化能力。作为对比,除了联合训练方案,现代元学习允许在测试阶段进行一些不可见的、标签有限的任务,希望能够快速适应它们。尽管MTL和元学习在问题表述上存在细微的差异,但两种学习范式都认为,现有训练任务之间的共享结构可以导致更好的泛化和适应性。本文通过理论分析和实证调查,进一步了解了这两种学习模式之间的密切联系。理论上,我们首先证明了MTL与一类基于梯度的元学习(GBML)算法具有相同的优化公式。然后我们证明了对于具有足够深度的过参数化神经网络,MTL和GBML学习到的预测函数是接近的。特别是,这一结果表明,这两个模型给出的预测是相似的,在相同的看不见的任务。通过实证,我们证实了我们的理论发现,通过适当的实现,MTL可以在一组少样本分类基准上与先进的GBML算法相媲美。由于现有的GBML算法经常涉及代价高昂的二阶两级优化,我们的一阶MTL方法在大型数据集(如微型imagenet)上快了一个数量级。我们相信,这项工作可以帮助弥合这两种学习模式之间的差距,并提供一个计算效率高的替代GBML,也支持快速任务适应。

https://www.zhuanzhi.ai/paper/5d6fac14a84a1a6163d80eb46284b0af

成为VIP会员查看完整内容
30

相关内容

多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
10+阅读 · 2021年6月20日
专知会员服务
92+阅读 · 2021年5月25日
专知会员服务
80+阅读 · 2021年5月10日
《多任务学习》最新综述论文,20页pdf
专知会员服务
121+阅读 · 2021年4月6日
专知会员服务
23+阅读 · 2020年12月16日
深度神经网络中的多任务学习汇总
极市平台
10+阅读 · 2019年9月24日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
19+阅读 · 2018年12月8日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
Arxiv
0+阅读 · 2021年8月19日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
21+阅读 · 2018年2月14日
VIP会员
相关VIP内容
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
10+阅读 · 2021年6月20日
专知会员服务
92+阅读 · 2021年5月25日
专知会员服务
80+阅读 · 2021年5月10日
《多任务学习》最新综述论文,20页pdf
专知会员服务
121+阅读 · 2021年4月6日
专知会员服务
23+阅读 · 2020年12月16日
微信扫码咨询专知VIP会员