题目: Laplacian Regularized Few-Shot Learning

简介:

我们为小样本学习提出了一个拉普拉斯正则化推断。给定从基类中学习到的任何特征嵌入,我们将包含两个项的二次二进制赋值函数最小化:(1)将查询样本分配给最近的类原型的一元项,以及(2)鼓励附近查询样本成对使用的成对拉普拉斯项具有一致的标签。我们的推论不会重新训练基本模型,并且可以将其视为查询集的图形聚类,但要受到支持集的监督约束。我们导出了函数松弛的计算有效边界优化器,该函数在保证收敛的同时为每个查询样本计算独立(并行)更新。在基础类上进行简单的交叉熵训练,并且没有复杂的元学习策略后,我们对五个基准进行了全面的实验。我们的LaplacianShot在不同模型,设置和数据集上具有显着优势,始终优于最新方法。此外,我们的归纳推理非常快,其计算时间接近于归纳推理,可用于大规模的一次性任务。

成为VIP会员查看完整内容
69

相关内容

注意力图神经网络的小样本学习
专知会员服务
156+阅读 · 2020年7月16日
元学习(meta learning) 最新进展综述论文
专知会员服务
241+阅读 · 2020年5月8日
ICCV2019|基于全局类别表征的小样本学习
极市平台
10+阅读 · 2019年9月21日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
小样本学习(Few-shot Learning)综述
黑龙江大学自然语言处理实验室
28+阅读 · 2019年4月1日
Meta-Learning 元学习:学会快速学习
专知
23+阅读 · 2018年12月8日
Learning from Few Samples: A Survey
Arxiv
69+阅读 · 2020年7月30日
Continual Unsupervised Representation Learning
Arxiv
5+阅读 · 2019年10月31日
Few-shot Learning: A Survey
Arxiv
347+阅读 · 2019年4月10日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
12+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
6+阅读 · 2018年12月6日
Arxiv
10+阅读 · 2018年7月8日
VIP会员
相关论文
Learning from Few Samples: A Survey
Arxiv
69+阅读 · 2020年7月30日
Continual Unsupervised Representation Learning
Arxiv
5+阅读 · 2019年10月31日
Few-shot Learning: A Survey
Arxiv
347+阅读 · 2019年4月10日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
12+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
6+阅读 · 2018年12月6日
Arxiv
10+阅读 · 2018年7月8日
微信扫码咨询专知VIP会员