UC.Berkeley CS189讲义教材:《机器学习全面指南》,185页pdf

2020 年 1 月 16 日 专知

【导读】UC.Berkeley CS189 《Introduction to Machine Learning》是面向初学者的机器学习课程在本指南中,我们创建了一个全面的课程指南,以便与学生和公众分享我们的知识,并希望吸引其他大学的学生对伯克利的机器学习课程感兴趣。


课程主页: https://www.eecs189.


讲义目录:


  • Note 1: Introduction

  • Note 2: Linear Regression

  • Note 3: Features, Hyperparameters, Validation

  • Note 4: MLE and MAP for Regression (Part I)

  • Note 5: Bias-Variance Tradeoff

  • Note 6: Multivariate Gaussians

  • Note 7: MLE and MAP for Regression (Part II)

  • Note 8: Kernels, Kernel Ridge Regression

  • Note 9: Total Least Squares

  • Note 10: Principal Component Analysis (PCA)

  • Note 11: Canonical Correlation Analysis (CCA)

  • Note 12: Nonlinear Least Squares, Optimization

  • Note 13: Gradient Descent Extensions

  • Note 14: Neural Networks

  • Note 15: Training Neural Networks

  • Note 16: Discriminative vs. Generative Classification, LS-SVM

  • Note 17: Logistic Regression

  • Note 18: Gaussian Discriminant Analysis

  • Note 19: Expectation-Maximization (EM) Algorithm, k-means Clustering

  • Note 20: Support Vector Machines (SVM)

  • Note 21: Generalization and Stability

  • Note 22: Duality

  • Note 23: Nearest Neighbor Classification

  • Note 24: Sparsity

  • Note 25: Decision Trees and Random Forests

  • Note 26: Boosting

  • Note 27: Convolutional Neural Networks (CNN)



讨论目录:


  • Discussion 0: Vector Calculus, Linear Algebra (solution)

  • Discussion 1: Optimization, Least Squares, and Convexity (solution)

  • Discussion 2: Ridge Regression and Multivariate Gaussians (solution)

  • Discussion 3: Multivariate Gaussians and Kernels (solution)

  • Discussion 4: Principal Component Analysis (solution)

  • Discussion 5: Least Squares and Kernels (solution)

  • Discussion 6: Optimization and Reviewing Linear Methods (solution)

  • Discussion 7: Backpropagation and Computation Graphs (solution)

  • Discussion 8: QDA and Logistic Regression (solution)

  • Discussion 9: EM (solution)

  • Discussion 10: SVMs and KNN (solution)

  • Discussion 11: Decision Trees (solution)

  • Discussion 12: LASSO, Sparsity, Feature Selection, Auto-ML (solution)



教材:




便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“UCBML” 就可以获取图书专知下载链接索引

  • 讲义和讨论,请访问课程主页


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看5000+AI主题知识资料
登录查看更多
6

相关内容

极大似然估计方法(Maximum Likelihood Estimate,MLE)也称为最大概似估计或最大似然估计,是求估计的另一种方法,最大概似是1821年首先由德国数学家高斯(C. F. Gauss)提出,但是这个方法通常被归功于英国的统计学家罗纳德·费希尔(R. A. Fisher) 它是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出现了,那么可以认为实验条件对A的出现有利,也即出现的概率P(A)较大。极大似然原理的直观想法我们用下面例子说明。设甲箱中有99个白球,1个黑球;乙箱中有1个白球.99个黑球。现随机取出一箱,再从抽取的一箱中随机取出一球,结果是黑球,这一黑球从乙箱抽取的概率比从甲箱抽取的概率大得多,这时我们自然更多地相信这个黑球是取自乙箱的。一般说来,事件A发生的概率与某一未知参数theta有关, theta取值不同,则事件A发生的概率P(A/theta)也不同,当我们在一次试验中事件A发生了,则认为此时的theta值应是t的一切可能取值中使P(A/theta)达到最大的那一个,极大似然估计法就是要选取这样的t值作为参数t的估计值,使所选取的样本在被选的总体中出现的可能性为最大。
【经典书】机器学习:贝叶斯和优化方法,1075页pdf
专知会员服务
390+阅读 · 2020年6月8日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
机器学习在材料科学中的应用综述,21页pdf
专知会员服务
45+阅读 · 2019年9月24日
2019最新-UC Berkeley-《深度学习入门课程》分享
深度学习与NLP
13+阅读 · 2019年3月1日
【收藏】机器学习的Pytorch实现资源集合【附下载链接】
机器学习算法与Python学习
10+阅读 · 2018年9月8日
机器学习的Pytorch实现资源集合
专知
11+阅读 · 2018年9月1日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
【资源】15个在线机器学习课程和教程
专知
8+阅读 · 2017年12月22日
机器学习方法体系汇总
机器学习算法与Python学习
9+阅读 · 2017年8月12日
人工智能之机器学习算法体系汇总
深度学习世界
4+阅读 · 2017年8月11日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
9+阅读 · 2018年3月28日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关资讯
2019最新-UC Berkeley-《深度学习入门课程》分享
深度学习与NLP
13+阅读 · 2019年3月1日
【收藏】机器学习的Pytorch实现资源集合【附下载链接】
机器学习算法与Python学习
10+阅读 · 2018年9月8日
机器学习的Pytorch实现资源集合
专知
11+阅读 · 2018年9月1日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
【资源】15个在线机器学习课程和教程
专知
8+阅读 · 2017年12月22日
机器学习方法体系汇总
机器学习算法与Python学习
9+阅读 · 2017年8月12日
人工智能之机器学习算法体系汇总
深度学习世界
4+阅读 · 2017年8月11日
相关论文
Arxiv
18+阅读 · 2019年1月16日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
9+阅读 · 2018年3月28日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
12+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员