In this paper, we study the problem of how to learn a model-agnostic meta-learner that simultaneously learning from different feature spaces. The reason that most of model-agnostic meta-learner methods cannot handle multiple task spaces is due to less common knowledge for the task instances. The reduction of shared knowledge is because different tasks with different example-level manifolds cannot entirely share the same model architecture. Actually, various tasks only share partial meta-parameters. For example, for two multi-feature tasks whose example-level manifolds contain a same subspace but their remaining subspaces are not the same, one can imagine that the common knowledge can be the feature extractor for that common subspace, but other subspaces' feature extractors cannot be used between the two tasks.


翻译:在本文中,我们研究了如何学习一个同时从不同特征空间学习的模型-不可知性元解析器的问题。 多数模型-不可知性元解析器方法无法处理多个任务空间的原因是对任务实例的了解较少。 共享知识的减少是因为不同示例级元体的不同任务不能完全共享相同的模型结构。 事实上, 不同任务只共享部分元参数。 例如, 两种多功能任务, 其示例级元体包含相同的子空间, 但其剩余子空间不同, 人们可以想象, 普通知识可能是该共同子空间的特征提取器, 但其它子空间的特征提取器无法在两个任务之间使用 。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
专知会员服务
61+阅读 · 2020年3月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
180+阅读 · 2020年2月1日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Arxiv
8+阅读 · 2020年6月15日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Top
微信扫码咨询专知VIP会员