UvA - Machine Learning 1课程是阿姆斯特丹大学人工智能硕士课程的一部分。该课程由阿姆斯特丹机器学习实验室开发,目前由Erik Bekkers博士提供。
UvA - Machine Learning 1的课程主页(https://uvaml1.github.io)包括讲课的链接(Youtube频道)和相应的pdf注释幻灯片。该系列讲座密切关注Bishop的《模式识别和机器学习》一书。每个视频的开头都有相关章节。
课程内容如下:
-
第一周
- 1.1: 课程简介
- 1.2: 什么是机器学习
- 1.3: 机器学习的类型
- 1.4: 概率轮,贝叶斯理论
- 1.5: 概率论:示例
- 2.1: 期望、方差和协方差
- 2.2: 高斯分布
- 2.3: 最大似然估计
- 2.4: 最大似然估计:示例
- 2.5: 最大后验
- 2.6: 贝叶斯预测
-
第二周
- 3.1: 利用基础函数进行线性回归
- 3.2: 利用最大似然进行线性回归
- 3.3: 随机梯度下降
- 3.4: 欠拟合和过拟合
- 3.5: 正则最小二乘
- 4.1: 模型选择
- 4.2: 偏置方差分解
- 4.3: 高斯后验
- 4.4: 序列贝叶斯学习
- 4.5: 贝叶斯预测分布
-
第三周
- 5.1: 等价核
- 5.2: 贝叶斯模型对比
- 5.3: 模型证据近似/经验贝叶斯
- 5.4: 使用决策区域分类
- 5.5: 决策理论
- 5.6: 概率生成式模型
- 6.1: 概率生成式模型: 最大似然
- 6.2: 概率生成式模型: 离散数据 (朴素贝叶斯)
- 6.3: 判别函数
- 6.4: 判别函数: 最小二乘回归
- 6.5: 判别函数: 感知器
-
第四周:
- 7.1: 利用基础函数进行分类
- 7.2: 概率判别式模型:逻辑回归
- 7.3: 逻辑回归:随机梯度下降
- 7.4: 逻辑回归:牛顿-拉夫逊方法
- 8.1: 神经网络
- 8.2: 神经网络: 万能近似理论
- 8.3: 神经网络: 损失
- 8.4: 神经网络: 随机梯度下降
- 8.5: 神经网络: 反向传播
-
第五周
- 9.1: 无监督学习 - 隐变量模型
- 9.2: K-Means聚类
- 9.3: 拉格朗日乘子
- 9.4: 高斯混合模型和EM算法
- 10.1: 主成分分析: 最大方差
- 10.2: 主成分分析: 最小重构损失
- 10.3: 概率主成分分析
- 10.4: 非线性主成分分析(核PCA和自编码器)
-
第六周
- 11.1: 核化线性模型
- 11.2: 核技巧
- 11.3: 支持向量机: 最大间隔分类器
- 11.4: 不等约束优化 (对偶拉格朗日)
- 11.5: 支持向量机: 核SVM
- 11.6: 支持向量机:软间隔分类器
- 12.1: 高斯的一些有用的属性
- 12.2: 核化贝叶斯回归
- 12.3: 高斯过程
- 12.4: 高斯过程: With An Exponential Kernel
- 12.5: 高斯过程:回归
-
第七周
- 13.1: 模型组合方法(vs贝叶斯模型平均法)
- 13.2: Bootstrapping方法和Feature Bagging方法
- 13.3: Adaboost方法
- 13.4: 决策树和随机森林
课程视频和PDF下载链接在下方的PDF文件中