Previous work has cast doubt on the general framework of uniform convergence and its ability to explain generalization in neural networks. By considering a specific dataset, it was observed that a neural network completely misclassifies a projection of the training data (adversarial set), rendering any existing generalization bound based on uniform convergence vacuous. We provide an extensive theoretical investigation of the previously studied data setting through the lens of infinitely-wide models. We prove that the Neural Tangent Kernel (NTK) also suffers from the same phenomenon and we uncover its origin. We highlight the important role of the output bias and show theoretically as well as empirically how a sensible choice completely mitigates the problem. We identify sharp phase transitions in the accuracy on the adversarial set and study its dependency on the training sample size. As a result, we are able to characterize critical sample sizes beyond which the effect disappears. Moreover, we study decompositions of a neural network into a clean and noisy part by considering its canonical decomposition into its different eigenfunctions and show empirically that for too small bias the adversarial phenomenon still persists.


翻译:先前的工作使人们对统一的趋同总框架及其解释神经网络一般化的能力产生怀疑。 通过考虑具体的数据集,人们发现神经网络完全错误地对培训数据的预测(对立组合)进行分类,使任何现有的一般化在统一趋同的基础上是空洞的。我们通过无限范围模型的镜片对以前研究过的数据设置进行了广泛的理论调查。我们证明神经中枢(NTK)也存在同样的现象,我们发现其起源。我们强调产出偏差的重要作用,从理论上和从经验上表明明智的选择如何完全缓解问题。我们找出了对立组合准确性的尖锐阶段转变,并研究了其对培训样本大小的依赖性。结果,我们可以将影响消失的临界样本大小描述为更多。此外,我们研究神经网络进入清洁和噪音部分的分解,方法是考虑其神经分解成不同的二元功能,并从经验上表明对抗性现象仍然存在的偏差太小。

0
下载
关闭预览

相关内容

不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
64+阅读 · 2020年12月11日
专知会员服务
45+阅读 · 2020年10月31日
专知会员服务
53+阅读 · 2020年9月7日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
A Simple Generative Network
Arxiv
0+阅读 · 2021年7月1日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
6+阅读 · 2021年3月30日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
4+阅读 · 2015年3月20日
VIP会员
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
A Simple Generative Network
Arxiv
0+阅读 · 2021年7月1日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
6+阅读 · 2021年3月30日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
4+阅读 · 2015年3月20日
Top
微信扫码咨询专知VIP会员