深度学习的理论探讨比应用滞后了“好几个量级”。在2017未来科学大奖颁奖盛典,南京大学教授周志华在与深鉴科技联合创始人汪玉对话时表示,深度学习的理论探讨比应用滞后了“好几个量级”,在谈及人工智能近期的热潮时表示,这是源于机器学习在过去15年里取得了飞速进展,而机器学习的实质就是人类希望通过计算机来寻找出数据中所包含的规律;周志华认为,目前深度学习的优势在于能更好地发挥出数据的作用,而且目前深度模型多是基于神经网络,这就能更方便快捷地利用上新增加的能力,但同时深度学习模型的理论基础不是特别扎实,“很多时候它到底怎样能做得更好是在靠尝试,而不是有一个很清楚的理论告诉我们该怎么做、不该怎么做,这是它的弱点。”他认为,深度学习的理论探讨比应用滞后了“好几个量级”。
工程化的门槛越来越低,而理论的门槛越来越高。密歇根州立大学助理教授汤继良认为,深度学习工程化的门槛越来越低,而理论的门槛越来越高:深度学习正在两极化。大部分甚至越来越多的深度学习的人会偏向于工程化。包括建立更加全面便捷,快速可视化的深度学习平台,甚至暴力地将深度学习应用到更加多的领域。小部分的深度学习研究者会偏向于理论化:解决深度学习的理论瓶颈包括可解释性等。一个正在发生的趋势是:工程化的门槛越来越低,而理论的门槛越来越高。
斯坦福大学《深度学习理论》课程邀请相关专家待你探究深度学习背后的理论基础,解开深度学习的黑盒,带你知其然知其所以然。
如今深度学习在各个领域取得的一系列成功仅仅是依靠各种经验的堆叠。但是挖掘这些成功背后的理论支持也是很重要的。在这门概述课程将探究Burna and Mallat, Mhaskar and Poggio, Papyan and Elad, Bolsckei and co-authors, Baraniuk以及他们合作者的一些最新研究,并试图建立起深度学习的理论框架。除了开始的背景介绍的课程,我们还有一些嘉宾作者对他们关于深度学习理论研究的报告。 网址链接:https://stats385.github.io/
Lecture01: Deep Learning Challenge. Is There Theory? (Donoho/Monajemi/Papyan)
Lecture02: Overview of Deep Learning From a Practical Point of View (Donoho/Monajemi/Papyan)
Lecture03: Harmonic Analysis of Deep Convolutional Neural Networks (Helmut Bolcskei)
Lecture04: Convnets from First Principles: Generative Models, Dynamic Programming & EM (Ankit Patel)
Lecture05: When Can Deep Networks Avoid the Curse of Dimensionality and Other Theoretical Puzzles (Tomaso Poggio)
Lecture06: Views of Deep Networks from Reproducing Kernel Hilbert Spaces (Zaid Harchaoui)