少样本数据集泛化是研究良好的少样本分类问题的一种具有挑战性的变体,其中给出了多个数据集的不同训练集,目的是训练一个可适应的模型,然后可以通过仅使用几个例子从新数据集学习类。为此,我们提出利用不同的训练集来构建一个通用模板:通过插入适当的组件,可以定义广泛的数据集专用模型的部分模型。因此,对于每个新的几杆分类问题,我们的方法只需要推断少量参数插入到通用模板中。我们设计了一个单独的网络,为每个给定的任务生成这些参数的初始化,然后我们通过梯度下降的几个步骤来微调其提出的初始化。与以前的方法相比,我们的方法参数效率更高,可扩展性更强,适应性更强,并在具有挑战性的Meta-Dataset基准测试上达到了最好的性能。

https://arxiv.org/abs/2105.07029

成为VIP会员查看完整内容
25

相关内容

专知会员服务
31+阅读 · 2021年7月2日
专知会员服务
81+阅读 · 2021年5月10日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
32+阅读 · 2021年3月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
推出 Meta-Dataset:为小样本学习而构建的数据集
谷歌开发者
6+阅读 · 2020年6月16日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【基于元学习的推荐系统】5篇相关论文
专知
10+阅读 · 2020年1月20日
AI新视野 | 数据蒸馏Dataset Distillation
人工智能前沿讲习班
31+阅读 · 2019年6月14日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
3+阅读 · 2019年2月7日
Arxiv
8+阅读 · 2021年3月2日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年7月2日
专知会员服务
81+阅读 · 2021年5月10日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
32+阅读 · 2021年3月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
相关资讯
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
推出 Meta-Dataset:为小样本学习而构建的数据集
谷歌开发者
6+阅读 · 2020年6月16日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【基于元学习的推荐系统】5篇相关论文
专知
10+阅读 · 2020年1月20日
AI新视野 | 数据蒸馏Dataset Distillation
人工智能前沿讲习班
31+阅读 · 2019年6月14日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
3+阅读 · 2019年2月7日
相关论文
微信扫码咨询专知VIP会员