李宏毅《机器学习》完整笔记 —— 这可能是Github上最好的机器学习资源

2019 年 8 月 20 日 大数据技术

开源最前线(ID:OpenSourceTop) 猿妹综合整理

综合自:https://github.com/datawhalechina/leeml-notes、https://datawhalechina.github.io/leeml-notes


李宏毅老师的机器学习视频是机器学习领域经典的中文视频之一,也被称为中文世界中最好的机器学习视频。李老师以幽默风趣的上课风格让很多晦涩难懂的机器学习理论变得轻松易懂,并且老师会通过很多有趣的例子结合机器学习理论在课堂上展现出来,并且逐步推导深奥的理论知识。比如老师会经常用宝可梦来结合很多机器学习算法。对于想入门机器学习又想看中文讲解的人来说绝对是非常推荐的。



前不久,Github上出现了一个叫 leeml-notes 的开源项目,完整梳理了李宏毅机器学习视频课程笔记,可以作为视频学习的一个辅助资料,因为它不仅完全复刻李老师课堂上讲的所有内容,还加入了一些和相关的学习补充资料和参考资料,结合这些资料一起学习,相信你会对机器学习有更加深刻的理解。



这份项目由8位成员整理创建,目前已经在Github上获得 2849 个Star, 780 个Fork,提交了 360 个commits(Github地址: https://github.com/datawhalechina/leeml-notes


笔记完整的目录如下:



下面一起来看看笔记里面有什么精华内容:


机器学习介绍



图文并茂解释每个知识点,上图解释了什么是机器学习。



回归演示

丰富的代码示例,下面以回归演示为例: 现在假设有10个x_data和y_data,x和y之间的关系是y_data=b+w*x_data。 b,w都是参数,是需要学习出来的。 现在我们来练习用梯度下降找到b和w。


x_data = [338., 333., 328., 207., 226., 25., 179., 60., 208., 606.]
y_data = [640., 633., 619., 393., 428., 27., 193., 66., 226., 1591.]
x_d = np.asarray(x_data)
y_d = np.asarray(y_data)


先给b和w一个初始值,计算出b和w的偏微分

# linear regression
b = -120
w = -4
lr = 0.0000001
iteration = 100000

b_history = [b]
w_history = [w]

import time
start = time.time()
for i in range(iteration):
    b_grad=0.0
    w_grad=0.0
    for n in range(len(x_data))
        b_grad=b_grad-2.0*(y_data[n]-n-w*x_data[n])*1.0
         w_grad= w_grad-2.0*(y_data[n]-n-w*x_data[n])*x_data[n]

    # update param
    b -= lr * b_grad
    w -= lr * w_grad

    b_history.append(b)
    w_history.append(w)


# plot the figure
plt.subplot(121)
C = plt.contourf(x, y, Z, 50, alpha=0.5, cmap=plt.get_cmap('jet'))  # 填充等高线
# plt.clabel(C, inline=True, fontsize=5)
plt.plot([-188.4], [2.67], 'x', ms=12, mew=3, color="orange")
plt.plot(b_history, w_history, 'o-', ms=3, lw=1.5, color='black')
plt.xlim(-200-100)
plt.ylim(-55)
plt.xlabel(r'$b$')
plt.ylabel(r'$w$')
plt.title("线性回归")

plt.subplot(122)
loss = np.asarray(loss_history[2:iteration])
plt.plot(np.arange(2, iteration), loss)
plt.title("损失")
plt.xlabel('step')
plt.ylabel('loss')
plt.show()



输出结果如图



最后还有作业,讲解包含作业描述、任务要求、任务实现



除了内容丰富充实之外,创建者还专门整理了一个在线阅读的网站,在线阅读十分方便


地址:https://datawhalechina.github.io/leeml-notes


李宏毅视频教程在线观看地址:https://www.bilibili.com/video/av59538266



●编号875,输入编号直达本文

●输入m获取文章目录

推荐↓↓↓

开源最前线

登录查看更多
18

相关内容

李宏毅(Hung-yi Lee)目前任台湾大学电机工程学系和电机资讯学院的助理教授,他曾于 2012 年获得台湾大学博士学位,并于 2013 年赴麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)做访问学者。他的研究方向主要是机器学习(深度学习)和语音识别。
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
338+阅读 · 2020年3月17日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
118+阅读 · 2020年1月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
145+阅读 · 2019年10月27日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
学习自然语言处理路线图
专知会员服务
137+阅读 · 2019年9月24日
吐血整理!10 个机器学习教程汇总,爱可可推荐!
大数据技术
16+阅读 · 2019年9月2日
赶紧收藏!西瓜书《机器学习》完整笔记来了
大数据技术
29+阅读 · 2019年8月24日
PyTorch 学习笔记(六):PyTorch的十七个损失函数
极市平台
47+阅读 · 2019年5月13日
爆红GitHub!有人打算用这个项目100天拿下机器学习
算法与数据结构
4+阅读 · 2018年9月15日
资源 |​ 史上最全机器学习笔记
AI100
9+阅读 · 2017年11月21日
推荐|一份不错的机器学习笔记!
全球人工智能
22+阅读 · 2017年11月20日
课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础
机器学习研究会
4+阅读 · 2017年10月18日
Foreground-aware Image Inpainting
Arxiv
4+阅读 · 2019年1月17日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
相关VIP内容
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
338+阅读 · 2020年3月17日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
118+阅读 · 2020年1月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
145+阅读 · 2019年10月27日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
学习自然语言处理路线图
专知会员服务
137+阅读 · 2019年9月24日
相关资讯
吐血整理!10 个机器学习教程汇总,爱可可推荐!
大数据技术
16+阅读 · 2019年9月2日
赶紧收藏!西瓜书《机器学习》完整笔记来了
大数据技术
29+阅读 · 2019年8月24日
PyTorch 学习笔记(六):PyTorch的十七个损失函数
极市平台
47+阅读 · 2019年5月13日
爆红GitHub!有人打算用这个项目100天拿下机器学习
算法与数据结构
4+阅读 · 2018年9月15日
资源 |​ 史上最全机器学习笔记
AI100
9+阅读 · 2017年11月21日
推荐|一份不错的机器学习笔记!
全球人工智能
22+阅读 · 2017年11月20日
课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础
机器学习研究会
4+阅读 · 2017年10月18日
相关论文
Foreground-aware Image Inpainting
Arxiv
4+阅读 · 2019年1月17日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
3+阅读 · 2018年4月18日
Top
微信扫码咨询专知VIP会员