小样本分类的目的是在只有少量样本的情况下识别不可见的类。我们考虑了多域小样本图像分类的问题,其中不可见的类和样例来自不同的数据源。人们对这个问题越来越感兴趣,并激发了元数据集等基准的开发。在这种多领域设置的一个关键挑战是有效地整合来自不同训练领域集的特征表示。在这里,我们提出了一个通用表示转换器(URT)层,该元学会通过动态地重新加权和组合最合适的特定于领域的表示来利用通用特性进行小样本分类。在实验中,我们表明,URT在元数据集上设置了一个新的最先进的结果。具体来说,它在三个数据源上的性能超过了之前最好的模型,或者在其他数据源上也有相同的性能。我们分析了城市轨道交通的各种变体,并给出了一个可视化的注意力分数热图,以阐明该模型是如何执行跨领域泛化的。我们的代码可以在https://github.com/liulu112601/URT获得

成为VIP会员查看完整内容
57

相关内容

【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【DeepMind】CrossTransformers: 空间感知的小样本迁移
专知会员服务
39+阅读 · 2020年7月26日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【NeurIPS2019】图变换网络:Graph Transformer Network
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
3+阅读 · 2018年11月13日
VIP会员
微信扫码咨询专知VIP会员