Deep neural networks rely heavily on normalization methods to improve their performance and learning behavior. Although normalization methods spurred the development of increasingly deep and efficient architectures, they also increase the vulnerability with respect to noise and input corruptions. In most applications, however, noise is ubiquitous and diverse; this can often lead to complete failure of machine learning systems as they fail to cope with mismatches between the input distribution during training- and test-time. The most common normalization method, batch normalization, reduces the distribution shift during training but is agnostic to changes in the input distribution during test time. This makes batch normalization prone to performance degradation whenever noise is present during test-time. Sample-based normalization methods can correct linear transformations of the activation distribution but cannot mitigate changes in the distribution shape; this makes the network vulnerable to distribution changes that cannot be reflected in the normalization parameters. We propose an unsupervised non-parametric distribution correction method that adapts the activation distribution of each layer. This reduces the mismatch between the training and test-time distribution by minimizing the 1-D Wasserstein distance. In our experiments, we empirically show that the proposed method effectively reduces the impact of intense image corruptions and thus improves the classification performance without the need for retraining or fine-tuning the model.


翻译:深心神经网络严重依赖正常化方法来改进其业绩和学习行为。虽然正常化方法刺激了日益深入和高效的结构的发展,但它们也增加了在噪音和输入腐败方面的脆弱性。但在大多数应用中,噪音无处不在,而且多种多样;这往往会导致机器学习系统完全失败,因为机器学习系统无法应付培训期间和测试时投入分配不匹配的问题。最常见的正常化方法,即批量正常化,减少了培训期间的分发变化,但对于测试时间输入分配的变化是不可知的。这使得分批正常化很容易在测试时间出现噪音时发生性能退化。基于抽样的正常化方法可以纠正激活分布的线性转变,但不能减轻分配形状的变化;这就使得网络容易发生分配变化,而这些变化无法反映在标准化参数中。我们建议一种不受监督的非参数性参数分布修正方法,以适应每个层的激活分布。这通过尽量减少1-D 瓦塞斯坦距离来减少培训和测试时间分配之间的不匹配。在我们的实验中,我们实验中显示,拟议的方法需要有效地改进高性图像的分类。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
73+阅读 · 2020年8月2日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
已删除
将门创投
4+阅读 · 2017年12月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年11月28日
Arxiv
0+阅读 · 2021年11月26日
Arxiv
0+阅读 · 2021年11月25日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2017年12月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员