春节充电系列:李宏毅2017机器学习课程学习笔记06之深度学习入门

2018 年 2 月 19 日 专知 专知内容组

【导读】我们在上一节的内容中已经为大家介绍了台大李宏毅老师的机器学习课程的logistic regression,这一节将主要针对深度学习入门知识进行讨论。本文内容涉及机器学习中深度学习入门的若干主要问题:深度学习的历史,深度学习基本结构,深度学习应用举例以及一些拓展知识。话不多说,让我们一起学习这些内容吧。

春节充电系列:李宏毅2017机器学习课程学习笔记01之简介

春节充电系列:李宏毅2017机器学习课程学习笔记02之Regression

春节充电系列:李宏毅2017机器学习课程学习笔记03之梯度下降

春节充电系列:李宏毅2017机器学习课程学习笔记04分类(Classification)

春节充电系列:李宏毅2017机器学习课程学习笔记05之Logistic 回归


课件网址:

http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html

视频网址:

https://www.bilibili.com/video/av15889450/index_1.html

李宏毅机器学习笔记6 深度学习入门



1. 深度学习的历史




深度学习在最近几年飞速发展,几乎呈指数爆炸增长


但deep learning并不是近几年才出现的新兴学习,在以往的几十年已经有无数人去研究它


2. 深度学习基本结构




深度学习类似之前的机器学习,也可以分为简单的三步


给定一个神经网络结构,也就是定义了一个函数集,给这个神经网络不同的权重也对应着不同的函数,我们要做的不断调整权重以找到我们想要的最好的函数 


神经网络可以分为三部分,输入层,隐藏层,输出层,从字面自已我们大致可以知道,第一个层就是输入层,最后一层即输出层,在输入层与输出层之间的即为隐藏层


Deep的含义就是神经网络包含很多隐藏层,从下图大致可以看出神经网络越深,一般效果越好


每个神经元实际上是一个线性变换加上一个sigmoid函数(上一次笔记有讲),线性变换我们可以用矩阵运算来描述


于是整个神经网络是由好多线性变换和好多sigmoid函数组合而成


我们可以用平行运算来加速矩阵操作,而这正是GPU的长处


隐藏层的工作实际上是特征抽取


3. 深度学习应用举例




例如在手写数字辨识中我们可以用neural network来实现,通过输出来判别属于哪个数字


这个网络结构都需要自己设计


利用神经网络的输出和实际label的交叉熵,我们定义其loss function


然后我们需要做的是找到一组参数,使得loss function最小


得到参数的方法当然还是之前采用的梯度下降的方法


4. 拓展知识




下面是一些做深度学习开发的平台


对于神经网络有一个理论:任何连续的函数f都可以用只有一个隐藏层的网络表示出来


下面是一些关于深度学习更多内容的链接


请关注专知公众号(扫一扫最下面专知二维码,或者点击上方蓝色专知),

  • 后台回复“LHY2017” 就可以获取 2017年李宏毅中文机器学习课程下载链接~

-END-

专 · 知


人工智能领域主题知识资料查看获取【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)

同时欢迎各位用户进行专知投稿,详情请点击

诚邀】专知诚挚邀请各位专业者加入AI创作者计划了解使用专知!

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请扫一扫如下二维码关注我们的公众号,获取人工智能的专业知识!

请加专知小助手微信(Rancho_Fang),加入专知主题人工智能群交流!


点击“阅读原文”,使用专知

登录查看更多
9

相关内容

李宏毅(Hung-yi Lee)目前任台湾大学电机工程学系和电机资讯学院的助理教授,他曾于 2012 年获得台湾大学博士学位,并于 2013 年赴麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)做访问学者。他的研究方向主要是机器学习(深度学习)和语音识别。
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
一份简短《图神经网络GNN》笔记,入门小册
专知会员服务
224+阅读 · 2020年4月11日
【Texas 大学】强化学习领域的课程学习:一个框架和综述
专知会员服务
70+阅读 · 2020年3月22日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
专知会员服务
112+阅读 · 2019年12月24日
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Arxiv
4+阅读 · 2018年9月11日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
12+阅读 · 2018年1月20日
VIP会员
相关VIP内容
相关论文
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Arxiv
4+阅读 · 2018年9月11日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
12+阅读 · 2018年1月20日
Top
微信扫码咨询专知VIP会员