The moments (a.k.a., mean and standard deviation) of latent features are often removed as noise when training image recognition models, to increase stability and reduce training time. However, in the field of image generation, the moments play a much more central role. Studies have shown that the moments extracted from instance normalization and positional normalization can roughly capture style and shape information of an image. Instead of being discarded, these moments are instrumental to the generation process. In this paper we propose Moment Exchange, an implicit data augmentation method that encourages the model to utilize the moment information also for recognition models. Specifically, we replace the moments of the learned features of one training image by those of another, and also interpolate the target labels -- forcing the model to extract training signal from the moments in addition to the normalized features. As our approach is fast, operates entirely in feature space, and mixes different signals than prior methods, one can effectively combine it with existing augmentation approaches. We demonstrate its efficacy across several recognition benchmark data sets where it improves the generalization capability of highly competitive baseline networks with remarkable consistency.


翻译:潜在特征的瞬间( a.k.a.a., 中值和标准偏差) 往往被清除,作为在培训图像识别模型时的噪音,以提高稳定性和缩短培训时间。然而,在图像生成领域,这些瞬间发挥更为中心的作用。研究显示,从原样正常化和定位正常化中提取的瞬间可以大致捕捉图像的风格和形状信息。这些瞬间不是被丢弃,而是对生成过程有帮助。在本文件中,我们提议了“瞬间数据交换”这一隐含的数据增强方法,鼓励模型同时将瞬间信息用于识别模型。具体地说,我们用另一个培训图像所学的特征取代了一种培训图像的瞬间,并且将目标标签相互交错 -- -- 模型除了正常特征外,还迫使从瞬间提取培训信号。由于我们的方法很快,完全在特征空间运行,并且混合了与以往方法不同的信号,人们可以有效地将它与现有的增强方法结合起来。我们建议了“瞬间数据交换” 。我们在若干个确认基准数据集中展示了它的效力,在那里它提高了高度竞争性基线网络的普及能力,并具有显著的一致性。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
163+阅读 · 2020年3月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
150+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
已删除
将门创投
4+阅读 · 2017年11月1日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
已删除
将门创投
4+阅读 · 2017年11月1日
Top
微信扫码咨询专知VIP会员