学好机器学习,这里有你想要的一切

2018 年 3 月 14 日 数据挖掘入门与实战


《机器学习》全新升级版


原价     ¥ 899.00 

已超500人参团

已至底价     ¥ 399.00 


>>  点击文末阅读原文参团  <<


课程名称


 

《机器学习》全新升级版I (七天无理由退款)

 

主讲老师


 

秦曾昌  小象学院签约讲师


英国布里斯托(Bristol)大学硕士、博士。美国加州大学伯克利分校(UC Berkeley)博士后、牛津 (Oxford) 大学与卡内基梅隆大学 (CMU) 访问学者。目前主要研究方向为数据挖掘、跨媒体检索与自然语言理解。出版英文专著1本(Springer出版)、编辑论文集1本和专业论文或章节 (Book Chapter) 90余篇。同时在IT工业界做机器学习、大数据、人工智能等专业技术咨询工作。


升级特点


 

1.  本课程的教学重心是从数学层面理解并掌握推导经典的机器学习算法,从历史到细节深入了解机器学习的基本思想和各种算法的具体思路与方法。

2.  强化数学、概率论、数理统计的基础知识,夯实机器学习的基础必备知识。

3.  本课程将提供严谨的数学推导过程文档,帮助学员更好地掌握算法推导(面试必备)

4.  课程中讲设置随堂测验环节,帮助学员在课中巩固和理解重要知识点。

5.  课程将提供学员经过老师精心整理的配套学习资料和经典论文,在课程的不同阶段给学员用来复习和学习。

6.  课程采用双语形式,课件为英文,用中文讲授。可以直接提高学员在机器学习领域的专业英文水平,为直接学习国际最前沿的技术论文打下良好基础。

  

开课时间


 

2018年3月16日


学习方式


   

在线直播,共20次课,每次2小时

每周2次(周一、五,20:00 - 22:00)

直播后提供录制回放视频,可在线反复观看,有效期1年


课程大纲



第一课:机器学习的数学基础

 

   1.  机器学习的数学基础

        a. 函数与数据的泛化

        b. 推理与归纳 (Deduction and Induction)

   2. 线性代数(Linear Algebra)

        a. 向量与矩阵 (Vector and Matrix)

        b. 特征值与特征向量

        c. 向量与高维空间

        d. 特征向量(Feature Vector)

   3.  概率与统计(Probability and Statistics)

        a. 条件概率与经典问题 (Conditional Probability)

        b. 边缘概率 (Marginal Probability)

   4.  作业/实践: 财宝问题的概率计算程序

       

第二课:机器学习的数学基础

 

   1.  统计推理(Statistical Inference)

        a. 贝叶斯原理与推理 (Bayesian Theorem)

        b. 极大似然估计 (Maximum Likelihood)

        c. 主观概率(Subjective Probability)

        d. 最大后延概率(MAP)

   2.  随机变量(Random Variable)

        a. 独立与相关 (Independence)

        b. 均值与方差 (Mean and Variance)

        c. 协方差 (Co-Variance)

   3.  概率分布(Probability Distributions)

   4.  中心极限定理(Central Limit Theorem)

   5.  作业/实践: 概率分布采样与不同随机变量之间协方差计算

 

第三课:机器学习的数学基础

 

   1.  梯度下降(Gradient Descent)

        a. 导数与梯度(Derivative and Gradient)

        b. 随机梯度下降(SGD)

        c. 牛顿方法(Newton's Method)

   2.  凸函数(Convex Function)

        a. Jensen不等式(Jensen's Inequality)

        b. 拉格朗日乘子(Lagrange Multiplier)

   3.  作业/实践: 利用牛顿方法求解给定的方程

 

第四课:机器学习的哲学(Philosophy of ML)

 

   1.  算法的科学(Science of Algorithms)

        a. 输入与输出的神话(Mystery of I/O)

        b. 奥卡姆剃刀(Occam’s Razor)

   2.  维数的诅咒(Curse of Dimensionality)

        a. 高维的几何特性 (Geometric Properity )

        b. 高维空间流形(High-dimensional Manifold)

   3.  机器学习与人工智能(Machine learning and AI)

   4.  机器学习的范式(Paradigms of ML)

 

第五课:经典机器学习模型(Classical ML Models)

 

   1.  样本学习(Case-Based Reasoning)

        a. K-近邻(K-Nearest Neighbors)

        b. K-近邻预测(KNN for Prediction)

        c. 距离与测度(Distance and Metric)

   2.  朴素贝叶斯(Naïve Bayes Classifier)

        a. 条件独立(Conditional Independence)

        b. 分类(Naive Bayes for Classification)

   3.  作业/实践:垃圾邮件分类的案例

 

第六课:经典机器学习模型(Classical ML Models)

 

   1.   决策树(Decision Tree Learning)

         a. 信息论与概率

         b. 信息熵(Information Entropy)

         c. ID3, CART算法

   2.  决策树剪枝(Pruning)

   3.  软决策树(Soft Decision Tree)

   4.  决策树与规则(DT and Rule Learning)

   5.  作业/实践:决策树分类实验

 

第七课:经典机器学习模型(Classical ML Models)

 

   1.  集成学习(Ensemble learning)

        a. Bagging and Boosting

        b. AdaBoost 

        c. 误差分解(Bias-Variance Decomposition)

        d. 随机森林(Boosting and Random Forest)

   2. 模型评估(Model Evaluation)

        a. 交叉验证(Cross-Validation)

        b. ROC (Receiver Operating Characteristics)

        c. Cost-Sensitive Learning

   3.  作业/实践:随机森林与决策树分类实验的比较

 

第八课:线性模型(Linear Models)

 

   1.  线性模型(Linear Models)

        a. 线性拟合(Linear Regression)

   2.  最小二乘法(LMS)

        b. 线性分类器(Linear Classifier)

   3.  感知器(Perceptron)

   4.  对数几率回归(Logistic Regression)

   5.  线性模型的概率解释 (Probabilistic Interpretation)

   6.  作业/实践:对数几率回归的文本情感分析中应用

 

第九课:线性模型(Linear Models)

 

   1.  线性判别分析 (Linear Discrimination Analysis)

   2.  约束线性模型 (Linear Model with Regularization)

         a. LASSO

         b. Ridge Regression

   3.  稀疏表示与字典学习 

         a. Sparse Representation & Coding

         b. Dictionary Learning

 

第十课:核方法(Kernel Methods)

 

   1.  支持向量机SVM(Support Vector Machines)

        a. VC-维(VC-Dimension)

        b. 最大间距(Maximum Margin)

        c. 支撑向量(Support Vectors)

   2.  作业/实践:SVM不同核函数在实际分类中比较

 

第十一课:核方法(Kernel Methods)

 

   1.  对偶拉格朗日乘子

   2.  KKT条件(KKT Conditions)

   3.  Support Vector Regression (SVR)

   4.  核方法(Kernel Methods)

 

第十二课:统计学习(Statistical Learning)

 

   1.  判别模型与生成模型

        a. 隐含变量(Latent Variable)

   2.  混合模型(Mixture Model)

        a. 三枚硬币问题(3-Coin Problem)

        b. 高斯混合模型(Gaussian Mixture Model)

   3.  EM算法(Expectation Maximization)

        a. 期望最大(Expectation Maximization)

        b. 混合模型的EM算法(EM for Mixture Models)

        c. Jensen 不等式 (Jensen's Inequality)

        d. EM算法推导与性能 (EM Algorithm)

 

第十三课:统计学习(Statistical Learning)

 

   1.  隐马可夫模型(Hidden Markov Models)

        a. 动态混合模型(Dynamic Mixture Model)

        b. 维特比算法(Viterbi Algorithm)

        c. 算法推导 (Algorithm)

   2.  条件随机场(Conditional Random Field)

 

第十四课:统计学习(Statistical Learning)

 

   1.  层次图模型(Hierarchical Bayesian Model)

        a. 概率图模型 (Graphical Model)

        b. 从隐含语义模型到p-LSA (From LSA to P-LSA)

        c. Dirichlet 分布与特点(Dirichlet Distribution)

        d. 对偶分布(Conjugate Distribution)

 

第十五课:统计学习(Statistical Learning)

 

   1.  主题模型(Topic Model – LDA)

        a. Latent Dirichlet Allocation

        b. 文本分类(LDA for Text Classification)

   2.  中文主题模型(Topic Modeling for Chinese)

   3.  其他主题模型(Other Topic Variables)

 

第十六课:无监督学习(Unsupervised Learning)

 

   1.  K-均值算法(K-Means)

        a. 核密度估计(Kernel Density Estimation)

        b. 层次聚类(Hierarchical Clustering)

   2.  蒙特卡洛(Monte Carlo)

        a. 蒙特卡洛树搜索(Monte Carol Tree Search)

        b. MCMC(Markov Chain Monte Carlo)

        c. Gibbs Sampling

 

第十七课:流形学习(Manifold Learning)

 

   1.  主成分分析(PCA)

        a. PCA and ICA

   2.  低维嵌入(Low-Dimensional Embedding)

        a. 等度量映射(Isomap)

        b. 局部线性嵌入(Locally Linear Embedding)

 

第十八课:概念学习(Concept Learning)

 

   1.  概念学习(Concept Learning)

        a. 经典概念学习

        b. One-Short概念学习

   2.  高斯过程学习(Gaussian Process for ML)

        c. Dirichlet Process

 

第十九课:强化学习(Reinforcement Learning)

 

    1.  奖赏与惩罚(Reward and Penalty)

        a. 状态空间 (State-Space Model)

        b. Q-学习算法 (Q-Learning)

   2.  路径规划 (Path Planning)

   3.  游戏人工智能 (Game AI)

   4.  作业/实践:小鸟飞行游戏的自动学习算法

 

第二十课:神经网络

 

   1.  多层神经网络

        a. 非线性映射(Nonlinear Mapping)

        b. 反向传播(Back-propagation)

   2.  自动编码器(Auto-Encoder)

       

常见问题


 

Q: 参加本门课程有什么要求?
A: 有基本的大学数学基础, 掌握Python语言编程(Python 3版本)

Q:有资料和教材吗?

A:课程有参考的资料(包括书籍和论文)会在课程的不同阶段给大家用来复习和学习。 



参团,咨询,查看课程,请点击【阅读原文】

↓↓↓

登录查看更多
3

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【经典书】机器学习:贝叶斯和优化方法,1075页pdf
专知会员服务
404+阅读 · 2020年6月8日
中科大-人工智能方向专业课程2020《脑与认知科学导论》
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
354+阅读 · 2020年2月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
吐血整理!10 个机器学习教程汇总,爱可可推荐!
大数据技术
16+阅读 · 2019年9月2日
那些值得推荐和收藏的线性代数学习资源
学好自然语言处理,这里有想要的一切
技术最前线
3+阅读 · 2018年8月9日
学好机器学习,这里有想要的一切
PaperWeekly
6+阅读 · 2018年6月10日
你需要学好知识图谱——用AI技术连接世界
算法与数据结构
6+阅读 · 2017年10月17日
你需要学好知识图谱——用 AI 技术连接世界
Python开发者
5+阅读 · 2017年10月11日
课程 | 12个适合机器学习入门的经典案例
博士团队带您入门机器学习,课程大优惠,限额30人,赶快上车啦!!!
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
22+阅读 · 2019年11月24日
OD-GCN: Object Detection by Knowledge Graph with GCN
Arxiv
4+阅读 · 2019年9月30日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
吐血整理!10 个机器学习教程汇总,爱可可推荐!
大数据技术
16+阅读 · 2019年9月2日
那些值得推荐和收藏的线性代数学习资源
学好自然语言处理,这里有想要的一切
技术最前线
3+阅读 · 2018年8月9日
学好机器学习,这里有想要的一切
PaperWeekly
6+阅读 · 2018年6月10日
你需要学好知识图谱——用AI技术连接世界
算法与数据结构
6+阅读 · 2017年10月17日
你需要学好知识图谱——用 AI 技术连接世界
Python开发者
5+阅读 · 2017年10月11日
课程 | 12个适合机器学习入门的经典案例
博士团队带您入门机器学习,课程大优惠,限额30人,赶快上车啦!!!
相关论文
Top
微信扫码咨询专知VIP会员