成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
ICLR2020|迄今为止最大规模,Google 推出针对少样本学习的 Meta 数据集
2020 年 5 月 19 日
新智元
新智元报道
来源:ICLR
编辑:科雨、白峰
【新智元导读】
深度学习的成功往往依赖于大量手动标注的训练数据,这种局限性,激发了对少样本学习的研究,Google 在 ICLR2020 发布的 Meta-Dataset 则针对此问题,进行了新的探索和尝试。
标注数据受限,Google发布少样本学习数据集
大量样本标签是大部分有监督学习为了达到良好的训练结果所需的必要条件,然而,这一特性,往往使得其在现实世界中的应用中有较大的局限性。
因此,越来越多的人选择研究人员选择进行少样本(Few-Shot)学习的研究。而在此领域中,一个很成熟的例子就是少样本图片分类问题:从一少部分有代表性的图片中学习新的类别。
将人类学习与机器学习进行对比,人可以从少量样本中快速学习到新的信息和知识,而这对于机器来说却很难,我们可以使用理论的角度来分析这一明显的差距。
除此之外,从应用角度出发,少样本学习也是一件非常重要的事情。因为在现实世界中,我们并不能总是得到拥有大量标注样本的数据集,因此,如果我们可以解决这一问题,就可以让我们以更快的速度来根据的需求,进行模型的自定义和实现。
事实上,目前针对少样本学习的研究已经成爆炸速度增长,但是前人的基准测试并不能可靠地评估不同模型的相对优点,因此阻碍了研究的进展。
而 Google 在 ICLR2020 就发布了他们在少样本学习的新成果:「元数据集:学会从少样本中学习的数据集」,下面是论文链接:
https://openreview.net/forum?id=rkgAGAVKPr
在这篇论文中,Google 研究人员提出了一种大规模且多样化的基准,用于衡量现实中具有挑战性的少数几个图像分类模型的能力,从而提供了一个可以研究少样本分类不同方面的框架。
这个框架由 10 个开源的自然图像(包括 ImageNet,CUB-200-2011,Fungi 等),手写字符以及涂鸦数据集组成。
http://www.image-net.org/
http://www.vision.caltech.edu/visipedia/CUB-200-2011.html
https://github.com/visipedia/fgvcx_fungi_comp
Google 也将本篇论文的代码开源出来:
https://github.com/google-research/meta-dataset
与此同时,研究人员还专门制作了一个使用文档,用来证明 Meta-Dataset 在 Tensorflow 和 Pytorch 上通用:
https://github.com/google-research/meta-dataset/blob/master/Intro_to_Metadataset.ipynb
在接下来的文章中,我们会介绍初步研究的结果,并强调一些重要的研究方向。
背景:少样本情况下图像分类困难
在标准图像分类任务中,我们使用一组属于特定类别的一组图像进行模型的训练,然后使用相同类别的图像进行测试,然而,针对测试过程中遇到的全新类别问题,我们却无法很好的应对和处理少样本情况下的图像分类问题。
具体来说,在少样本分类任务中,训练集中包含的类与测试时出现的类完全不相交。
因此,此任务的目的就是学习一种灵活的模型,并在仅有几个样本的情况下,就可以轻松的将模型应用在新类别的分类中。
最终目标则是在各种测试任务中都有良好的表现,其中的每项任务中,都会在测试类别集合中出现之前未出现的类。
每个测试任务中,都会包含一个支持的标签图像集,模型可以从这个集合中,获取新类的信息,以及不相交的样本查询集合,然后使用模型进行分类。
在本文提出的元数据集中,研究人员还研究了对全新数据集的归纳,在训练过程中将看不到任何类别的图像。
与前人基准对比:比 Mini—ImageNet 能更好地获取多样化信息,快速解决不同任务
用于研究少样本分类的流行数据集是 mini-ImageNet,它是用 ImageNet 数据集的类别进行下采样后获得的。这个数据集包括 100 个类别,并被划分为训练集,验证集和测试集。
针对 Mini-ImageNet,尽管在测试过程中并没有涉及到训练过程中的类别信息,但是它依旧在视觉上与训练过程相似。之前的工作表明,这一点使得模型只需要简单的在测试过程中重复利用训练时期所学到的特征,就可以达到很好的效果,而无需证明从支持集中提供的少量样本中重新学习的能力。
与此相反的是,Meta-Dataset 则可以在训练过程中获取到多样化的信息,并且快速的将其用来在测试过程中解决完全不同的任务,这些任务可能来自于完全看不到的数据集。
前人的论文主要研究了在 mini—ImageNet 的训练过程以及在不同数据集上的测试,而 Meta-Dataset 则代表了迄今为止最大规模的,针对少样本图像分类的跨数据集基准。
同时,它还引入了一种采样算法,通过改变每个任务中的类别数量以及每个类的可用样本数,引入类不平衡以及对于以及在某些数据集中改变类之间的相似度,来生成具有特征和难度的任务。其中,元数据集的一些示范测试任务如下所示:
Meta-Dataset 初探:异构数据训练难,数据量影响模型性能排序,自适应算法作用突出
我们在元数据集上,在两个主要的少样本学习模型——预训练和元学习上进行了基准测试,通过评估在元数据集上的预训练和元学习模型,我们总结了一些得到的发现:
(1)现有方法难以利用异构训练数据
我们比较了仅使用 ImageNet 的训练类的训练模型(来自预训练和元学习方法)与使用 Meta-Dataset 中数据集中的所有训练类的训练模型,以便通过使用更广泛的训练数据集而获得泛化收益。我们之所以选择 ImageNet,是因为 ImageNet 上学习的功能可以轻松转移到其他数据集。
人们可能希望对更多数据进行训练(尽管是异构的),可以更高的推广到训练集。然而,事实并非总是如此。
具体而言,下图显示了不同模型在元数据集的十个数据集的测试任务上的准确性:
我们观察到,在对所有数据集(而不是仅对 ImageNet)进行训练后,来自手写字符/涂鸦(Omniglot 和 Quickdraw)的测试任务得到了显著提高。这很合理,因为这些数据集在视觉上与 ImageNet 明显不同。
但是,对于自然图像数据集的测试任务,仅通过在 ImageNet 上进行训练,就可以获得类似的准确性,这表明当前的模型无法有效利用异构数据来改善这一方面。
(2)某些模型在测试中对数据的利用更充分
研究者根据每个测试任务中可用样本的数量来分析不同模型的性能,发现了一个有趣的现象:
不同模型在特定数量的训练样本下效果最佳。
研究者观察到,当可用的样本很少时,某些模型会胜出其他模型,但是如果给出更多的样本,则没有太大的改进,而其他模型虽然并没有非常适合仅需要很少样本的任务,但是随着样本量增加,它会以更快的速度提高(例如 Finetune 基准)。
但是,由于在实践中,我们很可能事先不知道在测试时可以使用的样本数量,因此,研究者希望设计一种可以最好地利用任意数量样本的模型,并避免上述情况所存在的问题。
(3)元学习器的自适应算法与其端到端训练(即元学习训练)相比,对性能影响更大
研究者开发了一套新的基准,来衡量元学习的好处。具体来说,对于几个元学习模型,研究者考虑在预训练过程中进行特征提取的非元学习模型,之后,在评估中,将同样自适应算法应用在元学习模型的特征中。
当只在 ImageNet 中,元学习通常会有所帮助,或者至少不会造成太大的不利影响,但是在所有数据集上进行训练时,结果则是好坏混合。这说明,未来的方向需要在理解和提高元学习的性能上作出努力,尤其是在跨数据集的情形下。
结论
元数据集(Meta-Dataset)为少样本分类带来了新的挑战。研究人员的初步探索,解释了现有方法的局限性,并表明需要进行进一步的研究。
在非元学习领域,最近的工作已经有了一些很不错的成果,例如使用针对任务的巧妙设计,以及更复杂的超参数调整,结合预训练和元学习优势的「元基线」。
研究者希望元数据集可以对机器学习这一重要子领域的研究起到更大的推动作用。
登录查看更多
点赞并收藏
0
暂时没有读者
1
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
少样本学习
关注
16
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
46+阅读 · 2020年4月19日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【ICML2020投稿论文】用于半监督图像分类的CowMask,Milking CowMask for Semi-Supervised Image Classification
专知会员服务
28+阅读 · 2020年3月27日
【ICML2020投稿论文-CMU-DeepMind-Google】用于评估跨语言泛化的大规模多语言多任务基准
专知会员服务
13+阅读 · 2020年3月27日
【CVPR2020】从未标记的视频中学习视频对象分割,Learning Video Object Segmentation from Unlabeled Videos
专知会员服务
35+阅读 · 2020年3月12日
图像分类最新技术综述论文: 21种半监督、自监督和无监督学习方法一较高低
专知会员服务
183+阅读 · 2020年2月22日
【Google AI论文】无妥协的弱监督解缠,Weakly-Supervised Disentanglement Without Compromises
专知会员服务
19+阅读 · 2020年2月12日
大数据时代小样本如何学习?看这篇最新《小样本学习方法综述》论文
专知会员服务
144+阅读 · 2019年10月18日
图神经网络的ImageNet?斯坦福大学等开源百万量级OGB基准测试数据集
机器之心
6+阅读 · 2019年12月23日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
FewRel 2.0数据集:以近知远,以一知万,少次学习新挑战
PaperWeekly
24+阅读 · 2019年11月6日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
专知
194+阅读 · 2019年4月14日
大数据时代小样本如何学习?看这篇最新《小样本学习方法综述》论文
专知
127+阅读 · 2019年3月31日
最强数据集集合:50个最佳机器学习公共数据集丨资源
深度学习世界
4+阅读 · 2018年11月6日
资源 | 一份非常全面的开源数据集
黑龙江大学自然语言处理实验室
10+阅读 · 2018年9月7日
何恺明等在图像识别任务上取得重大进展,这次用的是弱监督学习
人工智能头条
6+阅读 · 2018年5月3日
该如何对「半监督学习算法」实际性应用进行评估?Google给出了新答案
人工智能学家
5+阅读 · 2018年4月26日
自然语言处理数据集免费资源开放(附学习资料)
数据派THU
16+阅读 · 2017年10月2日
How Useful is Self-Supervised Pretraining for Visual Tasks?
Arxiv
9+阅读 · 2020年3月31日
Text Level Graph Neural Network for Text Classification
Arxiv
8+阅读 · 2019年10月6日
OK-VQA: A Visual Question Answering Benchmark Requiring External Knowledge
Arxiv
9+阅读 · 2019年9月4日
Meta Learning for Task-Driven Video Summarization
Arxiv
6+阅读 · 2019年7月29日
S$^\mathbf{4}$L: Self-Supervised Semi-Supervised Learning
Arxiv
5+阅读 · 2019年5月9日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
A BERT Baseline for the Natural Questions
Arxiv
8+阅读 · 2019年3月21日
Learning Instance Segmentation by Interaction
Arxiv
6+阅读 · 2018年6月21日
Low-Shot Learning from Imaginary Data
Arxiv
15+阅读 · 2018年4月3日
Long-Term Visual Object Tracking Benchmark
Arxiv
7+阅读 · 2017年12月28日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
少样本学习
ICLR2020
数据集
样本
ICLR
少样本分类
相关VIP内容
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
46+阅读 · 2020年4月19日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【ICML2020投稿论文】用于半监督图像分类的CowMask,Milking CowMask for Semi-Supervised Image Classification
专知会员服务
28+阅读 · 2020年3月27日
【ICML2020投稿论文-CMU-DeepMind-Google】用于评估跨语言泛化的大规模多语言多任务基准
专知会员服务
13+阅读 · 2020年3月27日
【CVPR2020】从未标记的视频中学习视频对象分割,Learning Video Object Segmentation from Unlabeled Videos
专知会员服务
35+阅读 · 2020年3月12日
图像分类最新技术综述论文: 21种半监督、自监督和无监督学习方法一较高低
专知会员服务
183+阅读 · 2020年2月22日
【Google AI论文】无妥协的弱监督解缠,Weakly-Supervised Disentanglement Without Compromises
专知会员服务
19+阅读 · 2020年2月12日
大数据时代小样本如何学习?看这篇最新《小样本学习方法综述》论文
专知会员服务
144+阅读 · 2019年10月18日
热门VIP内容
开通专知VIP会员 享更多权益服务
乌克兰首次完全依靠UGV 和 FPV 无人机全自动攻击俄罗斯部队
《中高度长航时遥控无人机自动定位和跟踪》190页
【伯克利博士论文】高效深度学习推理的全栈方法
《优化联合作战准备:日本视角》最新21页
相关资讯
图神经网络的ImageNet?斯坦福大学等开源百万量级OGB基准测试数据集
机器之心
6+阅读 · 2019年12月23日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
FewRel 2.0数据集:以近知远,以一知万,少次学习新挑战
PaperWeekly
24+阅读 · 2019年11月6日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
专知
194+阅读 · 2019年4月14日
大数据时代小样本如何学习?看这篇最新《小样本学习方法综述》论文
专知
127+阅读 · 2019年3月31日
最强数据集集合:50个最佳机器学习公共数据集丨资源
深度学习世界
4+阅读 · 2018年11月6日
资源 | 一份非常全面的开源数据集
黑龙江大学自然语言处理实验室
10+阅读 · 2018年9月7日
何恺明等在图像识别任务上取得重大进展,这次用的是弱监督学习
人工智能头条
6+阅读 · 2018年5月3日
该如何对「半监督学习算法」实际性应用进行评估?Google给出了新答案
人工智能学家
5+阅读 · 2018年4月26日
自然语言处理数据集免费资源开放(附学习资料)
数据派THU
16+阅读 · 2017年10月2日
相关论文
How Useful is Self-Supervised Pretraining for Visual Tasks?
Arxiv
9+阅读 · 2020年3月31日
Text Level Graph Neural Network for Text Classification
Arxiv
8+阅读 · 2019年10月6日
OK-VQA: A Visual Question Answering Benchmark Requiring External Knowledge
Arxiv
9+阅读 · 2019年9月4日
Meta Learning for Task-Driven Video Summarization
Arxiv
6+阅读 · 2019年7月29日
S$^\mathbf{4}$L: Self-Supervised Semi-Supervised Learning
Arxiv
5+阅读 · 2019年5月9日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
A BERT Baseline for the Natural Questions
Arxiv
8+阅读 · 2019年3月21日
Learning Instance Segmentation by Interaction
Arxiv
6+阅读 · 2018年6月21日
Low-Shot Learning from Imaginary Data
Arxiv
15+阅读 · 2018年4月3日
Long-Term Visual Object Tracking Benchmark
Arxiv
7+阅读 · 2017年12月28日
大家都在搜
无人艇
palantir
大型语言模型
CMU博士论文
无人机系统
洛克菲勒
自主可控
大模型
生物信息
社区分享 | 用 PoseNet + TensorFlow.js 在浏览器实现体感游戏
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top