## 【马毅老师新书课件】低维模型进行高维数据分析:原理、计算和应用，710页pdf

4 月 27 日 专知

https://book-wright-ma.github.io/Lecture-Slides/

Chapter 1 and 2:
• Lecture 01: Introduction: Background, History, and Overview.

• Lecture 02: Sparse Models and L0 Minimization.

• Lecture 03: Relaxing the Sparse Recovery Problem via L1 Minimization.

Chapter 3 and 6:

• Lecture 04: Convex Methods for Correct Sparse Recovery.

• Lecture 05: Convex Sparse Recovery: Towards Stronger Correctness Results.

• Lecture 06: Convex Sparse Recovery: Matrices with Restricted Isometry Property.

• Lecture 07: Convex Sparse Recovery: Noisy Observations and Approximate Sparsity.

• Lecture 08: Convex Sparse Recovery: Phase Transition in Sparse Recovery.

Chapter 4 and 5:

• Lecture 09: Convex Low-Rank Matrix Recovery: Random Measurements.

• Lecture 10: Convex Low-Rank Matrix Recovery: Matrix Completion.

• Lecture 11: Convex Low-Rank and Sparse Decomposition: Algorithms.

• Lecture 12A: Convex Low-Rank and Sparse Decomposition: Analysis (jamboard notes by Jiantao Jiao).

• Lecture 12B: Convex Low-Rank and Sparse Decomposition: Extentions.

Chapter 8:

• Lecture 13: Convex Optimization for Structured Data: Unconstrained.

• Lecture 14: Convex Optimization for Structured Data: Constrained & Scalable.

Chapter 7 and 9:

• Lecture 15: Nonconvex Formulations: Sparsifying Dictionary Learning.

• Lecture 16: Nonconvex Methods: Dictionary Learning via L4 Maximization.

• Lecture 17: Nonconvex Optimization: First Order Methods.

• Lecture 18: Nonconvex Optimization: Power Iteration and Fixed Point.

Chapter 12 and 15:

• Lecture 19: Nonlinear Structured Models: Sparsity in Convolution and Deconvolution.

• Lecture 20: Nonlinear Structured Models: Transform Invariant Low-Rank Texture.

Chapter 16 and beyond:

• Lecture 21: Deep Discriminative Models: The Principle of Maximal Coding Rate Reduction.

• Lecture 22: Deep Discriminative Models: White-Box Deep Convolution Networks from Rate Reduction.

• Lecture 23: Deep Generative Models: Closed-Loop Data Transcription via Minimaxing Rate Reduction.

https://book-wright-ma.github.io/

John Wright 现为哥伦比亚大学电气工程系副教授。2009 年 10 月，他取得了伊利诺伊大学香槟分校的电气工程博士学位，2009 年至 2011 年在微软研究院工作。他的研究兴趣在于高维数据分析、信号处理、计算机视觉和优化领域，其与 Wang 和 Spielman 合著的论文《Exact Recovery of Sparsely-Used Dictionaries》获得了 2012 COLT 最佳论文奖。

• 后台回复“低维学习” 就可以获取【伯克利马毅老师等重磅新书】低维模型进行高维数据分析:原理、计算和应用，710页pdf》专知下载链接

### 相关内容

57+阅读 · 4月26日

32+阅读 · 2021年1月20日

29+阅读 · 2020年12月11日

85+阅读 · 2020年11月20日

40+阅读 · 2020年9月7日

3+阅读 · 2021年12月9日
CreateAMind
22+阅读 · 2019年1月4日

15+阅读 · 2017年10月1日

0+阅读 · 2015年5月31日

5+阅读 · 2014年12月31日

0+阅读 · 2013年12月31日

0+阅读 · 2012年12月31日

0+阅读 · 2012年12月31日

0+阅读 · 2012年12月31日

3+阅读 · 2012年12月31日

0+阅读 · 2010年12月31日

0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 6月22日
VIP会员

0+阅读 · 2015年5月31日

5+阅读 · 2014年12月31日

0+阅读 · 2013年12月31日

0+阅读 · 2012年12月31日

0+阅读 · 2012年12月31日

0+阅读 · 2012年12月31日

3+阅读 · 2012年12月31日

0+阅读 · 2010年12月31日

0+阅读 · 2009年12月31日
Top