机器学习与深度学习中的数学知识点汇总

2019 年 9 月 29 日 CVer

点击上方“CVer”,选择加"星标"或“置顶”

重磅干货,第一时间送达

本文转载自:SIGAI


本文列出的数学知识点已经写成了《机器学习的数学教程》,以后有机会的话可能会出版,以帮助大家学习。


所需的数学知识


在之前的公众号文章中已经说过,机器学习和深度学习中所用的数学知识主要来自以下几门课:

1.高等数学/微积分

2.线性代数与矩阵论

3.概率论与信息论

4.最优化方法

5.图论/离散数学

除此之外,有些理论和方法可能会用到更深的数学知识,如实变函数,泛函分析,微分几何,偏微分方程等,但对一般的方法和理论,这些知识不是必须的,因此我们可以忽略它们。对大多数人来说,没必要为了那些不常见的方法和理论而去学这些复杂的数学知识,这会大幅度的增加学习的成本与难度。


前面所列的5门数学知识中,矩阵论,信息论,最优化方法是国内理工科本科生基本上没有学过的。图论除了计算机类的专业之外,一般也不会学。如果想全面而系统的学好机器学习与深度学习,补上这些数学知识是必须的。


微积分


微积分是现代数学的基础,线性代数,矩阵论,概率论,信息论,最优化方法等数学课程都需要用到微积分的知识。单就机器学习和深度学习来说,更多用到的是微分。积分基本上只在概率论中被使用,概率密度函数,分布函数等概念和计算都要借助于积分来定义或计算。


几乎所有的机器学习算法在训练或者预测时都是求解最优化问题,因此需要依赖于微积分来求解函数的极值,而模型中某些函数的选取,也有数学性质上的考量。对于机器学习而言,微积分的主要作用是:


1.求解函数的极值

2.分析函数的性质


下面列出机器学习和深度学习中所需的微积分知识点,显然,不是课本里所讲的所有内容都是需要的,我们只列出所必须的。


极限。极限是高等数学和初等数学的分水岭,也是微积分这座大厦的基石,是导数、微分、积分等概念的基础。虽然在机器学习里不直接用到极限的知识,但要理解导数和积分,它是必须的。


上确界与下确界。这一对概念对工科的微积分来说是陌生的,但在机器学习中会经常用到,不要看到论文或书里的sup和inf不知道什么意思。


导数。其重要性众所周知,求函数的极值需要它,分析函数的性质需要它。典型的如梯度下降法的推导,logistic函数导数的计算。熟练地计算函数的导数是基本功。


Lipschitz连续性。这一概念在工科教材中同样没有提及,但对分析算法的性质却很有用,在GAN,深度学习算法的稳定性、泛化性能分析中都有用武之地。


导数与函数的单调性。某些算法的推导,如神经网络的激活函数,AdaBoost算法,都需要研究函数的单调性。


导数与函数的极值。这个在机器学习中处于中心地位,大部分优化问题都是连续优化问题,因此可以通过求导数为0的点而求函数的极值,以实现最小化损失函数,最大化似然函数等目标。


导数与函数的凹凸性。在凸优化,Jensen不等式的证明中都有它的应用。


泰勒公式。又一个核心知识点。在优化算法中广泛使用,从梯度下降法,牛顿法,拟牛顿法,到AdaBoost算法,梯度提升算法,XGBoost的推导都离不开它。


不定积分。积分在机器学习中使用的相对较少,主要用于概率的计算中,它是定积分的基础。


定积分。包括广义积分,被用于概率论的计算中。机器学习中很大一类算法是概率型算法,如贝叶斯分类器,概率图模型,变分推断等。这些地方都涉及到对概率密度函数进行积分。


变上限积分。分布函数是典型的变上线积分函数,同样主要用于概率计算中。


牛顿-莱布尼兹公式。在机器学习中很少直接使用,但它是微积分中最重要的公式之一,为定积分的计算提供了依据。


常微分方程。在某些论文中会使用,但一般算法用不到。


偏导数。重要性不用多说,机器学习里绝大部分函数都是多元函数,要求其极值,偏导数是绕不开的。


梯度。决定了多元函数的单调性和极值,梯度下降法的推导离不开它。几乎所有连续优化算法都需要计算函数的梯度值,且以寻找梯度为0的点作为目标。


高阶偏导数。确定函数的极值离不开它,光有梯度值还无法确定函数的极值。


链式法则。同样使用广泛,各种神经网络的反向传播算法都依赖于链式法则。


Hessian矩阵。决定了函数的极值和凹凸性,对使用工科教材的同学可能是陌生的。


多元函数的极值判别法则。虽然不直接使用,但对理解最优化方法至关重要。


多元函数的凹凸性判别法则。证明一个问题是凸优化问题是离不开它的。


Jacobian矩阵。工科教材一般没有介绍这一概念,但和Hessian矩阵一样,并不难理解,使用它可以简化多元复合函数的求导公式,在反向传播算法中广泛使用。


向量与矩阵求导。常见的一次函数,二次函数的梯度,Hessian矩阵的计算公式要烂熟于心,推导并不复杂。


泰勒公式。理解梯度下降法,牛顿法的优化算法的基石。


多重积分。主要用于概率论中,计算随机向量的积分,如正态分布。


偏微分方程。在某些理论推导中可能会使用,如变分法中的欧拉-拉格朗日方程。


参考书目:


微积分用经典的同济7版就可以了,这是国内很多高校工科专业的微积分教材。如果想深入学习,可以看数学分析的教材,这是数学系的微积分。北大张筑生先生所著的数学分析可谓是国内这方面教材的精品。


线性代数与矩阵论


相对于微积分,线性代数似乎用的更多,而且有一部分属于矩阵论/矩阵分析的范畴,超出了工科线性代数教材的范围。下面列出线性代数和矩阵论的常用知识点。


向量及其运算。机器学习算法的输入很多时候是向量,如样本的特征向量。因此熟练掌握向量以及常用的运算是理解机器学习的基础。


矩阵及其运算。与向量一样,是线性代数的核心概念,各种运算,常用矩阵,必须烂熟于心。


行列式。直接使用的少,在概率论,某些模型的推导中偶尔使用。


线性方程组。直接使用的少,但这是线性代数的核心内容。


特征值与特征向量。在机器学习中被广泛使用,很多问题最后归结于求解矩阵的特征值和特征向量。如流形学习,谱聚类,线性判别分析,主成分分析等。


广义特征值。工科线性代数教材一般不提及此概念,但在流形学习,谱聚类等算法中经常用到它。


Rayleigh商。工科教材一般不提及它。在某些算法的推导过程中会用到,如线性判别分析。


矩阵的谱范数与条件数。工科教材一般不提及它。在某些算法的分析中会用到它,它刻画了矩阵的重要性质。


二次型。很多目标函数是二次函数,因此二次型的地位不言而喻。


Cholesky分解。某些算法的推导中会用到它,工科教材一般不提及它。


特征值分解。对机器学习非常重要,很多问题最后归结于特征值分解,如主成分分析,线性判别分析等。


奇异值分解。在机器学习中广泛使用,从正态贝叶斯分类器,到主题模型等,都有它的影子。


参考书目:


线性代数可以看矩阵分析,如果想更全面系统的学习,可以看斯蒂文的这本线性代数。       


概率论与信息论


概率论与信息论在机器学习中用得非常多。概率论的知识,一般不超出工科教材的范畴。而信息论是很多同学没有学过的,不过只要你理解了微积分和概率论,理解这些概念并不是难事。下面列出常用的概率论与信息论知识点。


随机事件与概率。这是理解随机变量的基础,也是概率论中最基本的知识。


条件概率与独立性。条件概率非常重要,在机器学习中,只要有概率模型的地方,通常离不开它。独立性在很多地方也被使用,如概率论图模型。


条件独立。在概率论图模型中广泛使用,一定要理解它。


全概率公式。基础公式,地位不用多说。


贝叶斯公式。在机器学习的概率型算法中处于灵魂地位,几乎所有生成模型都要用到它。


离散型随机变量与连续型随机变量。重要性不用多说,概率质量函数,概率密度函数,分布函数,一定要熟练掌握。


数学期望。非常重要,好多地方都有它的影子。

方差与标准差。非常重要,刻画概率分布的重要指标。


Jensen不等式。在很多推导和证明中都要用它,如EM算法,变分推断。


常用的概率分布,包括均匀分布,正态分布,伯努利分布,二项分布,多项分布,t分布等,在各种机器学习算法中广泛使用。


随机向量。多元的随机变量,在实际中更有用。


协方差。经常使用的一个概念,如主成分分析,多元正态分布中。


参数估计。包括最大似然估计,最大后验概率估计,贝叶斯估计,核密度估计,一定要弄清楚它们是怎么回事。


随机算法,包括采样算法,遗传算法,蒙特卡洛算法,在机器学习中也经常使用。


信息论中的一些概念,包括熵,交叉熵,KL散度,JS散度,互信息,信息增益,一定要深刻理解这些概念。如果你不理解KL散度,那怎么理解变分推断和VAE?



参考书目:


概率论国内理工科专业使用最多的是浙大版的教材:

《概率论与数理统计》,国外的书籍推荐《信息论基础》

       


最优化方法


前面已经说过,最优化方法是机器学习的灵魂,用于确定模型的参数或预测结果。不幸的是,工科专业一般没有学过这门课。不过只要你理解了微积分和线性代数,并不难推导出这些算法。下面列出常用的最优化方法知识点:


梯度下降法。最简单的优化算法,但却很有用,尤其在深度学习中。


随机梯度下降法。在深度学习中的重要性妇孺皆知。


最速下降法。梯度下降法的改进型,是理解梯度提升等算法的基础。


梯度下降法的改进型。如AdaGrad,AdaDelta,Adam等,使用深度学习开源库的时候经常会看到这些名字。


牛顿法。二阶优化算法的典型代表,只是在深度学习中用的少。在logistic回归等算法的训练中会用到它。


拟牛顿法。牛顿法的改进,在条件随机场等模型的训练中会用到L-BFGS等算法。


坐标下降法。在logistic回归等模型的训练中会用到它,不难理解。


凸优化。最优化中的核心概念之一,如果一个问题被证明为凸优化问题,恭喜你,它基本上可以较好的解决。


拉格朗日乘数法。在各种算分的推导中经常使用,如主成分分析,线性判别分析等,如果不熟练掌握它,你将非常艰难。


KKT条件。拉格朗日乘数法扩展到带不等式约束后的版本,在SVM的推导中将会使用。


拉格朗日对偶。不太好理解的知识点,在SVM的推导中经常用到,不过套公式并不难。


多目标优化。一般很少使用,在多目标NAS中会使用它,如帕累托最优等概念。


变分法。用于求解泛函的极值,在某些理论推导中会用到它,如通过变分法可以证明在均值和方差一定的情况下,正态分布的熵最大。变分推断中也会用到此概念。如果熟练的掌握了微积分,推导出欧拉-拉格朗日方程并不困难。


参考书目:


最优化方法可以参考下面两本经典教材:

      


图论


机器学习中的某些问题可以用图论的方法解决,如流形学习,谱聚类。某些算法的表达也可能用到图论的知识,如深度学习中的计算图,NAS中的网络拓扑结构图。概率图模型让很多初学者谈虎色变,它是图论与概率论的完美结合。下面介绍常用的图论知识点。


图的基本概念,如顶点,边,有向图,无向图等。

邻接矩阵与加权度矩阵,图论中的核心概念,边一般都带有权重的。


某些特殊的图,如二部图,有向无环图等,在深度学习中经常会用到他们。


最短路径问题。经典的Dijkstra算法是每个程序员必须掌握的。


拉普拉斯矩阵和归一化拉普拉斯矩阵。比较难理解的概念,机器学习中的很多算法,如流形学习,使用图论的半监督学习,谱聚类都离不开它。理解这个矩阵和它的性质,是理解这些算法的基础。


参考书目:

  

如果你想要了解更多算法面试经验和面试题,以及算法岗实习和校招内推,欢迎加入AI算法岗求职群,详情请见:重磅!2019 AI算法岗求职群来了


2019AI算法岗求职群(知识星球)


本星球不仅面向今年2020届)找工作和找实习的学生(研一/研二/大三等),还面向刚入学或已工作的人群。目前已有超过1630+位同学加入星球旨在分享AI算法岗的秋招准备攻略(含刷题)、面试经验和校招/社招/实习的内推机会(含提前批)、学习路线、知识题库和Offer如何选择等


    希望这个星球可以让你少走一些弯路

    扫码进星球



    如果喜欢招聘/面经/内推,麻烦给个在看


    麻烦给我一个在看

登录查看更多
2

相关内容

随着科学技术的迅速发展,古典的线性代数知识已不能满足现代科技的需要,矩阵的理论和方法业已成为现代科技领域必不可少的工具。诸如数值分析、优化理论、微分方程、概率统计、控制论、力学、电子学、网络等学科领域都与矩阵理论有着密切的联系,甚至在经济管理、金融、保险、社会科学等领域,矩阵理论和方法也有着十分重要的应用。当今电子计算机及计算技术的迅速发展为矩阵理论的应用开辟了更广阔的前景。因此,学习和掌握矩阵的基本理论和方法,对于工科研究生来说是必不可少的。全国的工科院校已普遍把“矩阵论”作为研究生的必修课。
【机器学习术语宝典】机器学习中英文术语表
专知会员服务
60+阅读 · 2020年7月12日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
221+阅读 · 2020年6月5日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
195+阅读 · 2020年5月2日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
319+阅读 · 2020年3月23日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
机器学习必备的数学基础有哪些?
人工智能头条
12+阅读 · 2019年10月18日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
博客 | 机器学习中的数学基础(概论)
AI研习社
6+阅读 · 2018年12月13日
学好机器学习,这里有你想要的一切
算法与数据结构
5+阅读 · 2018年6月19日
入门 | 一文介绍机器学习中基本的数学符号
机器之心
28+阅读 · 2018年4月9日
学习人工智能需要哪些必备的数学基础?
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
如何用 3 个月零基础入门机器学习?
AI研习社
6+阅读 · 2017年9月27日
Image Segmentation Using Deep Learning: A Survey
Arxiv
45+阅读 · 2020年1月15日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
18+阅读 · 2019年1月16日
Learning From Positive and Unlabeled Data: A Survey
Arxiv
5+阅读 · 2018年11月12日
Feature Selection Library (MATLAB Toolbox)
Arxiv
7+阅读 · 2018年8月6日
Arxiv
4+阅读 · 2018年4月26日
VIP会员
相关VIP内容
【机器学习术语宝典】机器学习中英文术语表
专知会员服务
60+阅读 · 2020年7月12日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
221+阅读 · 2020年6月5日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
195+阅读 · 2020年5月2日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
319+阅读 · 2020年3月23日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
相关资讯
机器学习必备的数学基础有哪些?
人工智能头条
12+阅读 · 2019年10月18日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
博客 | 机器学习中的数学基础(概论)
AI研习社
6+阅读 · 2018年12月13日
学好机器学习,这里有你想要的一切
算法与数据结构
5+阅读 · 2018年6月19日
入门 | 一文介绍机器学习中基本的数学符号
机器之心
28+阅读 · 2018年4月9日
学习人工智能需要哪些必备的数学基础?
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
如何用 3 个月零基础入门机器学习?
AI研习社
6+阅读 · 2017年9月27日
Top
微信扫码咨询专知VIP会员