【NeurIPS2020提交论文】通用表示Transformer层的小样本图像分类

2020 年 6 月 29 日 专知

A Universal Representation Transformer Layer for Few-Shot Image Classification


小样本分类的目的是在只有少量样本的情况下识别不可见的类。我们考虑了多域小样本图像分类的问题,其中不可见的类和样例来自不同的数据源。人们对这个问题越来越感兴趣,并激发了元数据集等基准的开发。在这种多领域设置的一个关键挑战是有效地整合来自不同训练领域集的特征表示。在这里,我们提出了一个通用表示转换器(URT)层,该元学会通过动态地重新加权和组合最合适的特定于领域的表示来利用通用特性进行小样本分类。在实验中,我们表明,URT在元数据集上设置了一个新的最先进的结果。具体来说,它在三个数据源上的性能超过了之前最好的模型,或者在其他数据源上也有相同的性能。我们分析了城市轨道交通的各种变体,并给出了一个可视化的注意力分数热图,以阐明该模型是如何执行跨领域泛化的。我们的代码可以在https://github.com/liulu112601/URT获得




专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“URTL” 可以获取《[NeurIPS2020提交论文】通用表示Transformer层的小样本图像分类》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取5000+AI主题知识资源
登录查看更多
7

相关内容

【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
【DeepMind】CrossTransformers: 空间感知的小样本迁移
专知会员服务
38+阅读 · 2020年7月26日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
27+阅读 · 2020年7月6日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
43+阅读 · 2020年6月18日
【斯坦福大学-论文】实体上下文关系路径的知识图谱补全
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
8+阅读 · 2019年3月21日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
VIP会员
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
8+阅读 · 2019年3月21日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Top
微信扫码咨询专知VIP会员