课程概述
机器学习是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。
这门课中,我们主要讲解经典的机器学习算法,如线性回归、逻辑回归、决策树等,也将讲解近几年才出现的如XGBoost、LightGBM等集成学习算法。此外,这门课还会讲解利用机器学习解决问题的实用技术,还包括Python、Scikit-learn工具的使用等等。
通过这门课,学习者将初步理解主流的机器学习算法,并且可以用机器学习技术解决现实生活中的问题。
与国内外很多非常优秀的机器学习课程或作品相比(如吴恩达机器学习课程、李航老师的统计学习方法、周志华老师的《机器学习》等),本课程对初学者来说,属于“雪中送炭”,而不是“锦上添花”,更适合初学者学习,主要解决初学者的三个问题:就是资料太多,难以取舍;理论性强,初学比较困难;代码资料比较少。只要有本科三年级以上的数学知识,会一种编程语言,就可以掌握这门课程的绝大部分内容。
课程主讲
黄海广,博士,副教授,硕士生导师。
这个名字好熟悉,想起来了:原来是翻译过吴恩达机器学习课程,整理过机器学习、深度学习笔记的黄海广博士。
黄海广博士善于指导初学者入门,深受读者喜爱。
授课目标
1、掌握机器学习的基本问题定义、基本模型,对机器学习学科有概览性的认识。
2、掌握目前主流的机器学习算法和模型,并能够根据实际问题的需要选择并实现相应的算法。
3、编程完成机器学习典型应用实例,对机器学习工程编程有初步的训练。
4、慕课的课程一个课时一般在15分钟以内,因此有些复杂理论是点到为止,但不影响读者进一步学习,作者认为:只有入门了,才知道接下来应该怎样走。
课程大纲
01 引言
1.1 机器学习概述
1.2 机器学习的类型
1.3 机器学习的背景知识
1.4 机器学习的开发流程
02 回归
2.1 线性回归
2.2 梯度下降
2.3 正则化
2.4 回归的评价指标
03 逻辑回归
3.1 分类问题
3.2 Sigmoid函数
3.3 逻辑回归求解
3.4 逻辑回归的代码实现
04 朴素贝叶斯
4.1 贝叶斯方法
4.2 朴素贝叶斯原理
4.3 朴素贝叶斯案例
4.4 朴素贝叶斯代码实现
05 机器学习实践
5.1 数据集划分
5.2 评价指标
5.3 正则化、偏差和方差
06 KNN算法
6.1 距离度量
6.2 KNN算法
6.3 KD树划分
6.4 KD树搜索
07 决策树
7.1 决策树原理
7.2 ID3算法
7.3 C4.5算法
7.4 CART算法
08 集成学习
8.1 集成学习方法概述
8.2 AdaBoost和GBDT算法
8.3 XGBoost算法
8.4 LightGBM算法
09 人工神经网络
9.1 人工神经网络概述
9.2 感知机算法
9.3 反向传播算法(BP算法)
10 支持向量机
10.1 支持向量机概述
10.2 线性可分支持向量机
10.3 线性支持向量机
10.4 线性不可分支持向量机
11聚类
11.1 无监督学习概述
11.2 K-means聚类
11.3 密度聚类和层次聚类
11.4 聚类的评价指标
12 降维
12.1 降维概述
12.2 SVD(奇异值分解)
12.3 PCA(主成分分析)
13 关联规则
13.1 关联规则概述
13.2 Apriori 算法
13.3 FP-Growth算法
14 机器学习项目流程
14.1 机器学习项目流程概述
14.2 数据清洗
14.3 特征工程
14.4 数据建模
课程大纲可能会有小范围调整。
课程每个单元会有20道题目的测验,课程相关资料已经公布在Github。