博客 | 机器学习中的数学基础(概论)

2018 年 12 月 13 日 AI研习社

本文原载于知乎专栏“AI的怎怎,歪歪不喜欢”AI研习社经授权转载发布。欢迎关注 邹佳敏 的知乎专栏及 AI研习社博客专栏(文末可识别社区名片直达)。

社长提醒:本文的相关链接点击文末【阅读原文】进行查看


一、机器学习与数学知识简介

1、 机器学习的目的:现代人都讲究资源整合,学习应用也是一样,需要将工作中所接触和学习到的技能整合起来形成自己的核心竞争力力,提高自己的不可替代性,而机器学习恰好是当前最热门也最有用的结合之一。

具体来说,数据研究人员的职场能力可以分成3个方面:计算机技术、数理统计知识和特定行业的业务知识。而“机器学习”就是计算机技术与数理统计知识的结合,“传统研究”则是数理统计与特定行业业务知识的整合,而一个不具备数理统计能力的码农则进入了一个“危险区域”,因为他通常已经在一家公司工作多年,具备基本的计算机能力,熟悉公司乃至行业有关的业务情况,却对数理统计一窍不通。相反,若具备3种职场能力并能全部有效整合起来,那就形成了所谓的“数据科学”。而“量化交易”正属于“数据科学”中有关金融和交易业务的部分。

2、 机器学习的分类:根据1959年Arthur Samuel的定义,机器学习就是研究在没有完全为计算机程序规定精确规则的基础上,如何让计算机具备自主学习能力的研究。大体而言可分为3类,监督学习,非监督学习和强化学习。监督学习通常用于分类预测和回归分析,例如用户点击和购买预测;非监督学习用于聚类和关联规则,例如新闻聚类;强化学习则是用于Q-learning和时间差学习,例如动态系统及机器人控制。简单而言,监督学习就是在已知当前所有样本标签的情况下去预测下一个样本的标签,非监督学习就是未知样本具体标签,而尝试去为它们打上标签。

3、机器学习的一般思路:机器学习的研究流程是,首先收集一系列样本数据,透过某一种机器学习算法所得到的假设函数或得分函数h(x),计算由h(x)与样本间的误差形成损失函数

J(  ),使其最小化,形成对总体模型的估计,最终去预测新样本的相关类别。其中最重要的部分是h(x)的假定和J()的计算,具体到监督学习上来说,则是在规则化参数的同时最小化误差,即使模型相对简单的同时使误差最小,前者保证模型不会过拟合,而后者则避免了欠拟合。在众多的学习研究,包括该课程中,重点研究损失函数的最小化问题。

4、机器学习的数学基础:机器学习所需要的数学知识包含3个大类:高等数学、概率统计与线性代数。就个人的感觉来说,高等数学作用于损失函数最小化问题求解,概率统计则是收集并处理数据,得到假设函数所需要的一系列特征量,最后估计新样本落在最优模型中某个类别的概率,而线性代数则用于在最优化问题在多维空间中的线性表达。

高等数学中最重要的就是泰勒公式、梯度和凸函数。由于导数本身是对函数的线性逼近,因此泰勒公式的本质就是对函数进行逼近,在邻域内的不断逼近迭代则是梯度下降法和牛顿法的精髓,只不过前者是函数的一阶导数逼近,后者是二阶。梯度本身定义为函数增长的方向,因此由全微分公式推出方向导数后,通过其余弦公式可知,只有在梯度方向与方向导数同向时,才能使得函数增长最快,这也是梯度下降法寻找最优解的由来。如果函数的最优化问题没有精确的代数解,通常会使用迭代的方法求解最优参数,但它们一般只会得到局部最优解,因此若能将函数本身变换为凸函数,迭代产生的局部最优解往往又是全局最优解本身。

概率与统计中的关注点在于,概率求解在已知样本总体分布的情况下,某一次抽样产生特定结果的可能性,而统计则是未知总体,通过对已知结果的不断抽样,计算总体分布的形态。因此,统计问题往往就是概率问题的逆向工程。而概率论与统计学习的关系在于,在已知多次抽样结果的情况下,对总体分布做出估计,然后使用估计的总体分布去预测下一次抽样结果的可能性,因此机器学习,尤其是监督学习算法先使用统计训练样本得到模型,后利用估计的模型对未来做出预测。于是就有一个不严谨的说法,机器学习是概率与统计的进阶版本。

线性代数的关注点通常在于求解多维特征的最优参数时,能简化计算过程,将繁杂的计算转变为简单的矩阵形式,同时大大的加快迭代的速度。举例可参考SVD算法。



【AI求职百题斩】已经悄咪咪上线啦,点击下方小程序卡片,开始愉快答题吧!


想知道正确答案?

回公众号聊天界面并发送“1213挑战”即可获取!


点击 阅读原文 查看本文更多内容

登录查看更多
6

相关内容

【经典书】人工智能及机器学习导论,457页pdf
专知会员服务
160+阅读 · 2020年7月5日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
195+阅读 · 2020年5月2日
【哈佛《CS50 Python人工智能入门》课程 (2020)】
专知会员服务
111+阅读 · 2020年4月12日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
318+阅读 · 2020年3月23日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
【教程推荐】中科大刘淇教授-数据挖掘基础,刘 淇
专知会员服务
80+阅读 · 2020年3月4日
【机器学习课程】机器学习中的常识性问题
专知会员服务
73+阅读 · 2019年12月2日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
机器学习必备的数学基础有哪些?
人工智能头条
12+阅读 · 2019年10月18日
博客 | MIT—线性代数(下)
AI研习社
6+阅读 · 2018年12月20日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
第二章 机器学习中的数学基础
Datartisan数据工匠
12+阅读 · 2018年4月5日
最适合机器学习新手的10种算法
论智
9+阅读 · 2018年1月23日
【干货】机器学习和深度学习概念入门(下)
机器学习研究会
6+阅读 · 2017年12月31日
【机器学习】从零开始入门机器学习算法实践
产业智能官
10+阅读 · 2017年12月1日
干货 | 从零开始入门机器学习算法实践
雷锋网
9+阅读 · 2017年11月30日
从概念到案例:初学者须知的十大机器学习算法
算法与数学之美
8+阅读 · 2017年11月16日
如何用 3 个月零基础入门机器学习?
AI研习社
6+阅读 · 2017年9月27日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
W-net: Bridged U-net for 2D Medical Image Segmentation
Arxiv
19+阅读 · 2018年7月12日
Arxiv
10+阅读 · 2018年4月19日
Arxiv
6+阅读 · 2018年1月14日
VIP会员
相关VIP内容
【经典书】人工智能及机器学习导论,457页pdf
专知会员服务
160+阅读 · 2020年7月5日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
195+阅读 · 2020年5月2日
【哈佛《CS50 Python人工智能入门》课程 (2020)】
专知会员服务
111+阅读 · 2020年4月12日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
318+阅读 · 2020年3月23日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
【教程推荐】中科大刘淇教授-数据挖掘基础,刘 淇
专知会员服务
80+阅读 · 2020年3月4日
【机器学习课程】机器学习中的常识性问题
专知会员服务
73+阅读 · 2019年12月2日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
相关资讯
机器学习必备的数学基础有哪些?
人工智能头条
12+阅读 · 2019年10月18日
博客 | MIT—线性代数(下)
AI研习社
6+阅读 · 2018年12月20日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
第二章 机器学习中的数学基础
Datartisan数据工匠
12+阅读 · 2018年4月5日
最适合机器学习新手的10种算法
论智
9+阅读 · 2018年1月23日
【干货】机器学习和深度学习概念入门(下)
机器学习研究会
6+阅读 · 2017年12月31日
【机器学习】从零开始入门机器学习算法实践
产业智能官
10+阅读 · 2017年12月1日
干货 | 从零开始入门机器学习算法实践
雷锋网
9+阅读 · 2017年11月30日
从概念到案例:初学者须知的十大机器学习算法
算法与数学之美
8+阅读 · 2017年11月16日
如何用 3 个月零基础入门机器学习?
AI研习社
6+阅读 · 2017年9月27日
Top
微信扫码咨询专知VIP会员