The Mixup scheme suggests mixing a pair of samples to create an augmented training sample and has gained considerable attention recently for improving the generalizability of neural networks. A straightforward and widely used extension of Mixup is to combine with regional dropout-like methods: removing random patches from a sample and replacing it with the features from another sample. Albeit their simplicity and effectiveness, these methods are prone to create harmful samples due to their randomness. To address this issue, 'maximum saliency' strategies were recently proposed: they select only the most informative features to prevent such a phenomenon. However, they now suffer from lack of sample diversification as they always deterministically select regions with maximum saliency, injecting bias into the augmented data. In this paper, we present, a novel, yet simple Mixup-variant that captures the best of both worlds. Our idea is two-fold. By stochastically sampling the features and 'grafting' them onto another sample, our method effectively generates diverse yet meaningful samples. Its second ingredient is to produce the label of the grafted sample by mixing the labels in a saliency-calibrated fashion, which rectifies supervision misguidance introduced by the random sampling procedure. Our experiments under CIFAR, Tiny-ImageNet, and ImageNet datasets show that our scheme outperforms the current state-of-the-art augmentation strategies not only in terms of classification accuracy, but is also superior in coping under stress conditions such as data corruption and object occlusion.


翻译:混合法建议混合一对样本,以扩大培训样本,最近人们相当关注改善神经网络的通用性。混合法的一个简单而广泛使用的延伸是结合区域类似辍学的方法:从样本中去除随机的补丁,用另一个样本的特征取而代之。尽管这些方法简单而有效,但由于随机性,很容易产生有害的样本。为了解决这个问题,最近提出了“最突出”的战略:它们只选择最丰富的特征来防止这种现象。然而,它们现在缺乏样本多样化,因为它们总是以最明显的方式选择具有最高清晰度的区域,将偏向性注入扩大的数据。在本文件中,我们展示了一种新颖的、但简单的混合法变异法,捕捉到两个世界的最佳特征。我们的想法是双重的。通过对特征进行随机抽样和“把它们移植到另一个样本”,我们的方法有效地生成了多样化但有意义的样本。它的第二个成分是产生粘固的样本标签,通过在精确性精准的精确度中混合标签,将精准性区域,将偏向偏向数据输入。在随机性模型中,通过我们的图像模型化的模型化方法,通过我们的精确性测试,通过我们的随机性模型将数据显示我们的精确性模型的模型的模型的模型,将数据显示显示我们的数据显示。

0
下载
关闭预览

相关内容

NeurIPS 2021 | 寻MixTraining: 一种全新的物体检测训练范式
专知会员服务
12+阅读 · 2021年12月9日
专知会员服务
27+阅读 · 2021年7月11日
专知会员服务
38+阅读 · 2021年3月29日
【CVPR2021】背景鲁棒的自监督视频表征学习
专知会员服务
17+阅读 · 2021年3月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
已删除
将门创投
4+阅读 · 2018年11月15日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Arxiv
5+阅读 · 2020年10月2日
Arxiv
6+阅读 · 2020年9月29日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
7+阅读 · 2020年8月7日
Arxiv
12+阅读 · 2019年4月9日
VIP会员
相关论文
Arxiv
5+阅读 · 2020年10月2日
Arxiv
6+阅读 · 2020年9月29日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
7+阅读 · 2020年8月7日
Arxiv
12+阅读 · 2019年4月9日
Top
微信扫码咨询专知VIP会员