Existing gradient-based meta-learning approaches to few-shot learning assume that all tasks have the same input feature space. However, in the real world scenarios, there are many cases that the input structures of tasks can be different, that is, different tasks may vary in the number of input modalities or data types. Existing meta-learners cannot handle the heterogeneous task distribution (HTD) as there is not only global meta-knowledge shared across tasks but also type-specific knowledge that distinguishes each type of tasks. To deal with task heterogeneity and promote fast within-task adaptions for each type of tasks, in this paper, we propose HetMAML, a task-heterogeneous model-agnostic meta-learning framework, which can capture both the type-specific and globally shared knowledge and can achieve the balance between knowledge customization and generalization. Specifically, we design a multi-channel backbone module that encodes the input of each type of tasks into the same length sequence of modality-specific embeddings. Then, we propose a task-aware iterative feature aggregation network which can automatically take into account the context of task-specific input structures and adaptively project the heterogeneous input spaces to the same lower-dimensional embedding space of concepts. Our experiments on six task-heterogeneous datasets demonstrate that HetMAML successfully leverages type-specific and globally shared meta-parameters for heterogeneous tasks and achieves fast within-task adaptions for each type of tasks.


翻译:现有基于梯度的元学习方法对少见的学习假定所有任务都有相同的投入空间。然而,在现实世界情景中,有许多情况下任务的投入结构可能不同,即,在投入模式或数据类型方面,任务的不同任务可能不同。现有的元Learner无法处理不同的任务分配(HTD),因为不仅全球元知识在任务之间共享,而且有区分每种任务类型的具体类型的特定知识。为了处理任务异质性并促进对每一类任务快速在任务中的任务任务内部调整,我们在本文件中建议采用HetMAML,这是一个任务偏重性模型型元学习框架,它可以捕捉到特定类型和全球共享的知识,能够实现知识定制和概括之间的平衡。具体地说,我们设计了一个多通道主干模块,将每一类任务的投入编码成具体方式嵌入的相同长度序列。然后,我们提出一个任务认知迭代特征汇总网络,可以自动考虑到具体任务、不同类型模型的模型和元学习框架的背景,可以捕捉到具体任务、不同类型、不同类型模型的模型结构,用以在任务领域内,为不同任务、不同层次的、不同层次的MLMLIMLMLM投入和适应性任务结构内,从而实现不同任务结构,从而实现不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务组合、不同任务、不同任务、不同任务模型、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同层次的模型、不同任务、不同层次的MLMLMLMFMLMLMLMLMLMLMLMLMLMF结构、不同任务结构、不同任务结构、不同任务结构、不同任务结构、不同任务结构、不同任务、不同任务、不同任务结构、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同任务、不同。

0
下载
关闭预览

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Arxiv
17+阅读 · 2021年2月15日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
13+阅读 · 2019年1月26日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
相关论文
Arxiv
17+阅读 · 2021年2月15日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
13+阅读 · 2019年1月26日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
19+阅读 · 2018年3月28日
Top
微信扫码咨询专知VIP会员