题目: Backward Feature Correction:How Deep Learning Performs Deep Learning

摘要: 一个110层的ResNet如何使用相对较少的训练实例和较短的训练时间来学习一个高复杂度的分类器?我们提出了一个理论来解释这方面的分层学习。我们将层次学习称为学习者通过将一个复杂的目标函数分解成一系列更简单的函数来减少样本和时间复杂度。将随机梯度下降法(SGD)应用于训练目标,形式化地分析了多层神经网络如何高效、自动地进行分层学习。

在概念方面,我们存在,我们所知,第一个理论结果表明有很深的神经网络仍然可以样品和时间效率在某些层次学习任务,当没有已知的无等级算法(如内核方法、线性回归功能映射,张量分解,稀疏编码,和他们简单的组合)是有效的。我们建立了一个新的原理,称为向后特征校正,我们认为这是理解多层神经网络中的层次学习的关键。

在技术方面,我们将展示为二进制分类、回归,甚至对每一个输入维数d > 0,有一个由度组成的概念类ω(1)多元多项式,利用ω(1)层神经网络作为学习者,SGD可以在多(d)时间内学习任意目标函数,使用多边形(d)样本进行任意1个多边形(d)回归或分类错误,通过学习来表示它的成分ω(1)层的二次函数。相反,我们提出下界说几无等级的学习者,包括任何内核方法,神经tan核方法,必须遭受超级多项式dω(1)样本或学习时间复杂度函数这个概念类甚至任何d^(0.01)错误。

成为VIP会员查看完整内容
12

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
初学者系列:推荐系统Wide & Deep Learning详解
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
吴恩达《ML Yearning》| 端到端的深度学习
人工智能前沿讲习班
7+阅读 · 2018年9月27日
深度学习面试100题(第56-60题)
七月在线实验室
9+阅读 · 2018年7月23日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
手把手教你构建ResNet残差网络
专知
38+阅读 · 2018年4月27日
深度学习(deep learning)发展史
机器学习算法与Python学习
12+阅读 · 2018年3月19日
LibRec 每周算法:Kaggle竞赛利器之xgboost
LibRec智能推荐
15+阅读 · 2017年8月24日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
The Matrix Calculus You Need For Deep Learning
Arxiv
12+阅读 · 2018年7月2日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
4+阅读 · 2018年3月19日
VIP会员
相关VIP内容
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
相关资讯
初学者系列:推荐系统Wide & Deep Learning详解
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
吴恩达《ML Yearning》| 端到端的深度学习
人工智能前沿讲习班
7+阅读 · 2018年9月27日
深度学习面试100题(第56-60题)
七月在线实验室
9+阅读 · 2018年7月23日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
手把手教你构建ResNet残差网络
专知
38+阅读 · 2018年4月27日
深度学习(deep learning)发展史
机器学习算法与Python学习
12+阅读 · 2018年3月19日
LibRec 每周算法:Kaggle竞赛利器之xgboost
LibRec智能推荐
15+阅读 · 2017年8月24日
微信扫码咨询专知VIP会员