春节充电系列:李宏毅2017机器学习课程学习笔记03之梯度下降
春节充电系列:李宏毅2017机器学习课程学习笔记04分类(Classification)
春节充电系列:李宏毅2017机器学习课程学习笔记05之Logistic 回归
春节充电系列:李宏毅2017机器学习课程学习笔记06之深度学习入门
春节充电系列:李宏毅2017机器学习课程学习笔记07之反向传播(Back Propagation)
春节充电系列:李宏毅2017机器学习课程学习笔记08之“Hello World” of Deep Learning
春节充电系列:李宏毅2017机器学习课程学习笔记09之Tip for training DNN
课件网址:
http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html
视频网址:
https://www.bilibili.com/video/av15889450/index_1.html
李宏毅机器学习笔记10 卷积神经网络
之前我们介绍了DNN,DNN的网络架构如下图所示,很明显,DNN的参数太多,我们需要想办法简化这个网络。
1. 图像的特性
图像有很多优良特性
DNN的隐藏层的作用是提取特征,但有时候图像的特征可能很小,不需要我们搜索整个图像的像素
一个相同特征可能出现在图像不同的地方
对于图像来说,下采样图像并不会改变图像的特征
根据图像的上述特性,我们设计了卷积神经网络
CNN的不同层对应利用图像的不同特性
2. 卷积
对于卷积操作来说,每次卷积需要滤波器
滤波器的实质是一个矩阵,每次矩阵和图像的某个区域的像素做内积得到某个值。
遍历整个图像就是一个卷积操作。
每个滤波器做相同的操作,多个filter得到的最终集合称为feature map,有几个filter最终就会得到几个image。
对于彩色图像来说的,filter变成3*3*3的立方体。
3. 池化
对于max pooling, 4个一组,取平均或者最大值。
一个filter就是一个channel。
Convolution,max pooling这样的结构能在CNN网络里重复很多次
4. Flatten
最后一步就是拉直(flatten)
CNN在keras中也很容易表示
注意第二部分的卷积层的参数数目是3*3*25,所以每个滤波器有225参数
最后一步拉直后放入全连接网络层
如果想要了解CNN更多的知识,看以下的推荐网站
请关注专知公众号(扫一扫最下面专知二维码,或者点击上方蓝色专知),
后台回复“LHY2017” 就可以获取 2017年李宏毅中文机器学习课程下载链接~
-END-
专 · 知
人工智能领域主题知识资料查看获取:【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)
同时欢迎各位用户进行专知投稿,详情请点击:
【诚邀】专知诚挚邀请各位专业者加入AI创作者计划!了解使用专知!
请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!
请扫一扫如下二维码关注我们的公众号,获取人工智能的专业知识!
请加专知小助手微信(Rancho_Fang),加入专知主题人工智能群交流!
点击“阅读原文”,使用专知!