Despite remarkable progress on visual recognition tasks, deep neural-nets still struggle to generalize well when training data is scarce or highly imbalanced, rendering them extremely vulnerable to real-world examples. In this paper, we present a surprisingly simple yet highly effective method to mitigate this limitation: using pure noise images as additional training data. Unlike the common use of additive noise or adversarial noise for data augmentation, we propose an entirely different perspective by directly training on pure random noise images. We present a new Distribution-Aware Routing Batch Normalization layer (DAR-BN), which enables training on pure noise images in addition to natural images within the same network. This encourages generalization and suppresses overfitting. Our proposed method significantly improves imbalanced classification performance, obtaining state-of-the-art results on a large variety of long-tailed image classification datasets (CIFAR-10-LT, CIFAR-100-LT, ImageNet-LT, Places-LT, and CelebA-5). Furthermore, our method is extremely simple and easy to use as a general new augmentation tool (on top of existing augmentations), and can be incorporated in any training scheme. It does not require any specialized data generation or training procedures, thus keeping training fast and efficient


翻译:尽管在视觉识别任务方面取得了显著进展,但深神经网在培训数据稀少或高度不平衡的情况下仍然难以全面推广,使其极易受到现实世界实例的伤害。在本文中,我们提出了一个令人惊讶的简单而高效的方法来减少这一限制:使用纯噪音图像作为额外的培训数据。与通常使用添加噪音或对抗性噪音来增加数据的常见做法不同,我们提出一个完全不同的观点,直接培训纯随机噪音图像;我们提出了一个新的分发-软件包正常化层(DAR-BN),使得除了同一网络中的自然图像之外,还能进行纯噪音图像培训。这鼓励了普遍化和抑制过度匹配。我们提出的方法大大改进了不平衡的分类性能,在大量成型的图像分类数据集(CIFAR-10-LT、CIFAR-100-LT、图像网-LT、Places-LT和CeebebA-5)上取得了最新的最新结果。此外,我们的方法非常简单和容易使用,可以用作(现有增强功能的)一般新的增强工具,因此可以快速地进行数据生成。

0
下载
关闭预览

相关内容

专知会员服务
17+阅读 · 2020年9月6日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
inpluslab
8+阅读 · 2019年10月29日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Synthetic data for unsupervised polyp segmentation
Arxiv
0+阅读 · 2022年2月17日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关VIP内容
专知会员服务
17+阅读 · 2020年9月6日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
已删除
inpluslab
8+阅读 · 2019年10月29日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员