资源|斯坦福课程:深度学习理论!

2017 年 11 月 9 日 全球人工智能


——免费加入AI技术专家社群>>

——免费加入AI高管投资者群>>

课程地址:https://stats385.github.io/


The goal of this course is to review currently available theories for deep learning and encourage better theoretical understanding of deep learning algorithms. 


Lecture slides for STATS385, Fall 2017

Lecture01: Deep Learning Challenge. Is There Theory? (Donoho/Monajemi/Papyan)

Lecture02: Overview of Deep Learning From a Practical Point of View (Donoho/Monajemi/Papyan)

Lecture03: Harmonic Analysis of Deep Convolutional Neural Networks (Helmut Bolcskei)

Lecture04: Convnets from First Principles: Generative Models, Dynamic Programming & EM (Ankit Patel)

Lecture05: When Can Deep Networks Avoid the Curse of Dimensionality and Other Theoretical Puzzles (Tomaso Poggio)

Lecture06: Views of Deep Networksfrom Reproducing Kernel Hilbert Spaces (Zaid Harchaoui)


Lecture 1 – Deep Learning Challenge. Is There Theory?

Readings

  1. Deep Deep Trouble

  2. Why 2016 is The Global Tipping Point...

  3. Are AI and ML Killing Analyticals...

  4. The Dark Secret at The Heart of AI

  5. AI Robots Learning Racism...

  6. FaceApp Forced to Pull ‘Racist' Filters...

  7. Losing a Whole Generation of Young Men to Video Games

Lecture 2 – Overview of Deep Learning From a Practical Point of View

Readings

  1. Emergence of simple cell

  2. ImageNet Classification with Deep Convolutional Neural Networks (Alexnet)

  3. Very Deep Convolutional Networks for Large-Scale Image Recognition (VGG)

  4. Going Deeper with Convolutions (GoogLeNet)

  5. Deep Residual Learning for Image Recognition (ResNet)

  6. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

  7. Visualizing and Understanding Convolutional Neural Networks

Blogs

  1. An Intuitive Guide to Deep Network Architectures

  2. Neural Network Architectures

Videos

  1. Deep Visualization Toolbox

Lecture 3

Readings

  1. A Mathematical Theory of Deep Convolutional Neural Networks for Feature Extraction

  2. Energy Propagation in Deep Convolutional Neural Networks

  3. Discrete Deep Feature Extraction: A Theory and New Architectures

  4. Topology Reduction in Deep Convolutional Feature Extraction Networks

Lecture 4

Readings

  1. A Probabilistic Framework for Deep Learning

  2. Semi-Supervised Learning with the Deep Rendering Mixture Model

  3. A Probabilistic Theory of Deep Learning

Lecture 5

Readings

  1. Why and When Can Deep-but Not Shallow-networks Avoid the Curse of Dimensionality: A Review

  2. Learning Functions: When is Deep Better Than Shallow

Lecture 6

Readings

  1. Convolutional Patch Representations for Image Retrieval: an Unsupervised Approach

  2. Convolutional Kernel Networks

  3. Kernel Descriptors for Visual Recognition

  4. End-to-End Kernel Learning with Supervised Convolutional Kernel Networks

  5. Learning with Kernels

  6. Kernel Based Methods for Hypothesis Testing

Lecture 7

Readings

  1. Geometry of Neural Network Loss Surfaces via Random Matrix Theory

  2. Resurrecting the sigmoid in deep learning through dynamical isometry: theory and practice

  3. Nonlinear random matrix theory for deep learning

Lecture 8

Readings

  1. Deep Learning without Poor Local Minima

  2. Topology and Geometry of Half-Rectified Network Optimization

  3. Convexified Convolutional Neural Networks

  4. Implicit Regularization in Matrix Factorization

Lecture 9

Readings

  1. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position

  2. Perception as an inference problem

  3. A Neurobiological Model of Visual Attention and Invariant Pattern Recognition Based on Dynamic Routing of Information

Lecture 10

Readings

  1. Working Locally Thinking Globally: Theoretical Guarantees for Convolutional Sparse Coding

  2. Convolutional Neural Networks Analyzed via Convolutional Sparse Coding

  3. Multi-Layer Convolutional Sparse Modeling: Pursuit and Dictionary Learning

  4. Convolutional Dictionary Learning via Local Processing

To be discussed and extra

  • Emergence of simple cell by Olshausen and Field

  • Auto-Encoding Variational Bayes by Kingma and Welling

  • Generative Adversarial Networks by Goodfellow et al.

  • Understanding Deep Learning Requires Rethinking Generalization by Zhang et al.

  • Deep Neural Networks with Random Gaussian Weights: A Universal Classification Strategy? by Giryes et al.

  • Robust Large Margin Deep Neural Networks by Sokolic et al.

  • Tradeoffs between Convergence Speed and Reconstruction Accuracy in Inverse Problems by Giryes et al.

  • Understanding Trainable Sparse Coding via Matrix Factorization by Moreau and Bruna

  • Why are Deep Nets Reversible: A Simple Theory, With Implications for Training by Arora et al.

  • Stable Recovery of the Factors From a Deep Matrix Product and Application to Convolutional Network by Malgouyres and Landsberg

  • Optimal Approximation with Sparse Deep Neural Networks by Bolcskei et al.

  • Convolutional Rectifier Networks as Generalized Tensor Decompositions by Cohen and Shashua


热门文章推荐

黑科技|Adobe出图象技术神器!视频也可以PS了!!

史上第一个被授予公民身份的机器人索菲亚和人对答如流!

浙大90后女黑客在GeekPwn2017上秒破人脸识别系统!

周志华点评AlphaGo Zero:这6大特点非常值得注意!

汤晓鸥教授:人工智能让天下没有难吹的牛!

英伟达发布全球首款人工智能全自动驾驶平台

未来 3~5 年内,哪个方向的机器学习人才最紧缺?

中科院步态识别技术:不看脸 50米内在人群中认出你!

厉害|黄仁勋狂怼CPU:摩尔定律已死 未来属于GPU!

干货|7步让你从零开始掌握Python机器学习!

登录查看更多
17

相关内容

Explanation:网络。 Publisher:Wiley。 SIT: http://dblp.uni-trier.de/db/journals/networks/
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
专知会员服务
115+阅读 · 2019年12月24日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
五个精彩实用的自然语言处理资源
机器学习研究会
6+阅读 · 2018年2月23日
【资源】15个在线机器学习课程和教程
专知
8+阅读 · 2017年12月22日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
5+阅读 · 2019年10月31日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
5+阅读 · 2018年10月11日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
专知会员服务
115+阅读 · 2019年12月24日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关论文
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
5+阅读 · 2019年10月31日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
5+阅读 · 2018年10月11日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
25+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员