Training Deep Learning Models in technical domains often brings the challenges that although the task is clear, insufficient data for training is available. In this work we propose a novel approach based on the combination of Siamese-Networks and Radial-Basis- Function-Networks to perform data-efficient classification without pre-Training by measuring the distance between images in semantic space in a data efficient manner. We develop the models using three technical datasets, the NEU dataset the BSD dataset as well as the TEX dataset. Additional to the technical domain show the general applicability to classical datasets (cifar10 and MNIST) as well. The approach is tested against state of the art models (Resnet50 and Resnet101) by stepwise reducing the number of samples available for training. The authors show that the proposed approach outperforms the state of the art models in the low data regime.


翻译:技术领域的深学习模式培训往往带来挑战,尽管任务十分明确,但培训数据不足。在这项工作中,我们提议采用基于Siamse-Networks和Radial-Basis-函数-Networks相结合的新办法,在不经过事先培训的情况下,通过以数据高效的方式测量语区图像之间的距离,进行数据高效分类。我们利用三个技术数据集、NEU数据集、BSD数据集和TEX数据集来开发模型。除了技术领域外,还显示对古典数据集(cifar10和MNIST)的一般适用性。该办法通过逐步减少可供培训的样本数量,对照艺术模型(Resnet50和Resnet101)进行测试。作者显示,拟议的方法超越了低数据体系中艺术模型的状况。

0
下载
关闭预览

相关内容

【ECCV2020】EfficientFCN:语义分割中的整体引导解码器
专知会员服务
15+阅读 · 2020年8月23日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年10月19日
Arxiv
13+阅读 · 2021年3月29日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员