现代神经网络训练在很大程度上依赖于数据的增强来提高泛化能力。在保持标记的扩展最初获得成功之后,最近出现了对标记扰动方法的兴趣激增,这种方法将训练样本中的特征和标记结合起来,以平滑所学习的决策表面。在本文中,我们提出了一种新的增强方法,利用特征归一化提取并重新注入第一和第二矩。我们将一个训练图像的学习特征的矩替换为另一个训练图像的学习特征的矩,并对目标标签进行插值。由于我们的方法速度快,完全在特征空间中操作,并且与以前的方法相比混合了不同的信号,因此可以有效地将其与现有的增强方法相结合。我们在计算机视觉、语音和自然语言处理的基准数据集上演示了它的有效性,在这些基准数据集上,它不断地提高了高度竞争的基线网络的泛化性能。

成为VIP会员查看完整内容
55

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
46+阅读 · 2020年4月19日
特征金字塔网络FPN的直觉与架构
论智
11+阅读 · 2018年8月6日
【动态】何恺明团队最新力作:群组归一化(Group Normalization)
【重磅】自适应无监督学习的特征提取方法
中国自动化学会
7+阅读 · 2018年2月6日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年1月25日
Arxiv
3+阅读 · 2017年7月6日
VIP会员
相关VIP内容
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
46+阅读 · 2020年4月19日
相关论文
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年1月25日
Arxiv
3+阅读 · 2017年7月6日
微信扫码咨询专知VIP会员