吴恩达深度学习工程师课程汇总(附中文视频笔记)

2018 年 4 月 19 日 数据挖掘入门与实战

 向AI转型的程序员都关注了这个号👇👇👇


大数据挖掘DT数据分析  公众号: datadw


这里搜录了吴恩达深度学习课程的链接和课程笔记视频链接。


https://zhuanlan.zhihu.com/p/30870804


新的课程和笔记视频出来后会及时更新。对笔记的持续复习和理解,会以零星思考的方式持续高频率累积更新。不习惯看视频笔记的小伙伴可以试试看笔记文档。感谢作者更新。


吴恩达深度学习课程笔记

吴恩达全部课程共5门,现已推出4门

第一章:神经网络与深度学习 (笔记更新完毕)

第二章:改善深层神经网络 (笔记更新完毕)

第三章:结构化机器学习项目(笔记更新完毕)

第四章:卷积神经网络 (课程已出,学习中)

第五章:序列模型 (coursera2017.11月底开放课程)



以下为详细课程目录,对应链接在原文里面:

https://zhuanlan.zhihu.com/p/30870804


第四课 CNN

第一周 卷积神经网络

1.1 计算机视觉 computer vision 课程 文本笔记 视频笔记

1.2 边缘检测实例 edge detection example 课程 文本笔记 视频笔记 复习笔记

1.3 更多边缘检测 课程 文本笔记 视频笔记 弹幕笔记

1.4 padding 课程 文本笔记 视频笔记 弹幕笔记

1.5 卷积步长 strides 课程 文本笔记 视频笔记 弹幕笔记

1.6 卷积中'卷'的体现之处 Convolution over volumes 课程 文本笔记 视频笔记

1.7 单层卷积网络 one layer of convolutional network 课程 文本笔记 视频笔记

1.8 简单卷积网络示例 simple CNN 课程 文本笔记 视频笔记

1.9 池化层 pooling layer 课程 文本笔记 视频笔记

1.10 CNN model example LeNet-5 课程 文本笔记 视频笔记

1.11 CNN why convolution 课程 文本笔记 视频笔记

第二周 深度卷积神经网络:实例探究

2.01 为什么要做实例探究 课程 文本笔记 视频笔记

2.02 经典网络 LeNet, AlexNet, VGG16 课程 视频笔记

2.03 残差网络 Residual network 课程 视频笔记

2.04 残差网络为什么有用 Why ResNet works 课程 视频笔记

2.05 network in network and 1x1 convolution 课程 视频笔记

2.06 谷歌inception网络介绍 课程 视频笔记

2.07 Inception network 课程 视频笔记

2.08 使用开源实现方法 课程 视频笔记

2.09 迁移学习 transfer learing 课程 视频笔记

2.10 扩充数据 data augmentation 课程 视频笔记

2.11 计算机视觉现状 课程 视频笔记

第三周 目标检测

3.1 目标定位 object detection 课程 视频笔记

3.2 特征点检测 landmark detection 课程 视频笔记

3.3 目标检测 object detection 课程 视频课程

3.4 卷积移动窗口的实现 convolutional implementation of sliding window 课程 文本笔记

3.5 bounding box预测 课程 文本笔记

3.6 交集并集比 Intersection over union 课程 文本笔记

3.7 非极大集抑制 Non-max suppression 课程 文本笔记

3.8 Anchor boxes 课程 文本笔记

3.9 YOLO 算法 课程 文本笔记

3.10 R-CNN 算法 课程 文本笔记


第四周

4.1 人脸识别 face verification vs recognition 课程 文本笔记

4.2 one shot learning 课程 文本笔记

4.3 siamese network 课程 文本笔记

4.4 triplet loss 课程 文本笔记

4.5 face verification and binary classification 课程 文本笔记

4.6 neutral style transfer 课程 文本笔记

4.7 模型各层都在学什么?课程 文本笔记

4.8 neural transfer 损失函数 课程 文本笔记

4.9 content loss function 课程 文本笔记

4.10 style loss function 课程 文本笔记

4.11 从2D到1D和3D 课程 文本笔记


第三课

第一周 机器学习(ML)策略(1)

1.1 为什么是 ML 策略  Why ML Strategy 课程 笔记

1.2 正交化  Orthogonalization      课程 笔记 零星思考

1.3 单一数字评估指标  Simple Evaluation Metric 课程 笔记 零星思考

1.4 满足和优化指标  Optimizing and Satisficing Metric 课程 笔记 应用 零星思考

1.5 训练 / 开发 / 测试集划分  Train Dev Test Sets 课程 笔记 零星思考

1.6 开发集合测试集的大小  Dev Test Size 课程 笔记 零星思考

1.7 什么时候该改变开发 / 测试集和指标   课程 笔记 零星思考1,2

1.8 为什么是人的表现  Why human level performance 课程 笔记 零星思考

1.9 可避免偏差 Avoidable Bias 课程 笔记 零星思考

1.10 理解人的表现 理解 human level performance 课程 笔记 应用 零星思考

1.11 超过人的表现 超越 human level performance 课程 笔记 零星思考

1.12 改善你的模型的表现 改进模型表现 课程 笔记 零星思考


第二周 机器学习(ML)策略(2)

2.1 进行误差分析 Error Analysis 课程 笔记 零星思考

2.2 清楚标注错误的数据 Clean up incorrectly labeled data 课程 笔记1 笔记2 零星思考

2.3 快速搭建你的第一个系统,并进行迭代  课程 笔记 零星思考

2.4 在不同的划分上进行训练并测试      课程 笔记 零星思考

2.5 不匹配数据划分的偏差和方差  课程 笔记 零星思考

2.6 定位数据不匹配 如何解决train-dev分布不同问题 课程 笔记1 2 零星思考

2.7 迁移学习 Transfer Learning 课程 笔记 零星思考

2.8 多任务学习 Multi-task Learning      课程 笔记 零星思考

2.9 什么是端到端的深度学习  课程 笔记 零星思考

  • keywords: end-to-end learning, feature_extraction

2.10 是否要使用端到端的深度学习 课程 笔记 零星思考


第二课

第一周 深度学习的实用层面

1.1 训练 / 开发 / 测试集      课程 笔记

1.2 偏差 / 方差      课程 笔记

1.3 机器学习基础      课程 笔记

1.4 正则化      课程 笔记

1.5 为什么正则化可以减少过拟合?      课程 笔记

1.6 Dropout 正则化      课程 笔记

1.7 理解 Dropout      课程 笔记

1.8 其他正则化方法      课程 笔记

1.9 正则化输入      课程 笔记 零星思考

1.10 梯度消失与梯度爆炸      课程 笔记

1.11 神经网络的权重初始化      课程 笔记

1.12 梯度的数值逼近      课程 笔记

1.13 梯度检验      课程 笔记

1.14 关于梯度检验实现的注记      课程 笔记


第二周 优化算法

2.1 Mini-batch 梯度下降法      课程 笔记1 笔记2

2.2 理解 mini-batch 梯度下降法      课程 笔记同上

2.3 指数加权平均      课程 笔记

2.4 理解指数加权平均      课程 笔记

2.5 指数加权平均的偏差修正      课程 笔记

2.6 动量梯度下降法      课程 笔记

2.7 RMSprop      课程 笔记1 笔记2

2.8 Adam 优化算法      课程 笔记

2.9 学习率衰减      课程 笔记

2.10 局部最优的问题      课程 笔记


第三周 超参数调试、Batch正则化和程序框架

3.1 调试处理      课程 笔记

3.2 为超参数选择合适的范围      课程 笔记

3.3 超参数训练的实践:Pandas VS Caviar      课程 笔记

3.4 正则化网络的激活函数      课程 笔记1 笔记2 零星思考

  • BatchNormalization, standardization

3.5 将 Batch Norm 拟合进神经网络      课程 笔记 同上

3.6 Batch Norm 为什么奏效?      课程 笔记 同上

3.7 测试时的 Batch Norm      课程 笔记 新笔记 同上

3.8 Softmax 回归      课程 笔记 零星思考

3.9 训练一个 Softmax 分类器      课程 笔记 同上

3.10 深度学习框架      课程 笔记

3.11 TensorFlow      课程 笔记


第一课

第一周 深度学习概论

1.2 什么是神经网络?      课程 笔记

1.3 用神经网络进行监督学习      课程 笔记

1.4 为什么深度学习会兴起?      课程 笔记


第二周 神经网络基础

2.1 二分分类      课程 笔记

2.2 logistic 回归      课程 笔记

2.3 logistic 回归损失函数      课程 笔记

2.4 梯度下降法      课程 笔记

2.5 导数      课程 笔记

2.6 更多导数的例子      课程 笔记

2.7 计算图      课程 笔记

2.8 计算图的导数计算      课程 笔记

2.9 logistic 回归中的梯度下降法      课程 笔记

2.10 m 个样本的梯度下降      课程 笔记

2.11 向量化      课程 笔记

2.12 向量化的更多例子      课程 笔记

2.13 向量化 logistic 回归      课程 笔记

2.14 向量化 logistic 回归的梯度输出      课程 笔记

2.15 Python 中的广播      课程 笔记

2.16 关于 python / numpy 向量的说明      课程 笔记

2.17 Jupyter / Ipython 笔记本的快速指南      课程

2.18 (选修)logistic 损失函数的解释      课程 笔记


第三周 浅层神经网络

3.1 神经网络概览      课程 笔记

3.2 神经网络表示      课程 笔记

3.3 计算神经网络的输出      课程 笔记

3.4 多个例子中的向量化      课程 笔记

3.5 向量化实现的解释      课程 笔记

3.6 激活函数      课程 笔记

3.7 为什么需要非线性激活函数?      课程 笔记

3.8 激活函数的导数      课程 笔记

3.9 神经网络的梯度下降法      课程 笔记

3.10 (选修)直观理解反向传播      课程 笔记

3.11 随机初始化      课程 笔记


第四周 深层神经网络

4.1 深层神经网络      课程 笔记

4.2 前向和反向传播      课程 笔记

4.3 深层网络中的前向传播      课程 笔记

4.4 核对矩阵的维数      课程 笔记

4.5 为什么使用深层表示      课程 笔记

4.6 搭建深层神经网络块      课程 笔记

4.7 参数 VS 超参数      课程 笔记

4.8 这和大脑有什么关系?      课程 笔记


人工智能大数据与深度学习

搜索添加微信公众号:weic2c

长按图片,识别二维码,点关注



大数据挖掘DT数据分析

搜索添加微信公众号:datadw


教你机器学习,教你数据挖掘

长按图片,识别二维码,点关注

登录查看更多
0

相关内容

个人主页: Andrew Ng Wikipedia: Andrew Ng
吳恩達是斯坦福大学计算机科学系和电气工程系的副教授,斯坦福人工智能实验室的主任。他还与达芙妮·科勒一起创建了在线教育平台Coursera。

2011年,吳恩達在Google創建了Google Brain項目,以通過分佈式集群計算機開發超大規模的人工神經網絡。2014年5月16日,吴恩達加入百度,负责「百度大脑」计划。他将同时担任百度公司首席科学家。
Yann Lecun 纽约大学《深度学习(PyTorch)》课程(2020)PPT
专知会员服务
179+阅读 · 2020年3月16日
【电子书】Flutter实战305页PDF免费下载
专知会员服务
22+阅读 · 2019年11月7日
【课程】伯克利2019全栈深度学习课程(附下载)
专知会员服务
56+阅读 · 2019年10月29日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
145+阅读 · 2019年10月27日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
91+阅读 · 2019年10月16日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
这份深度学习课程笔记获吴恩达点赞
全球人工智能
4+阅读 · 2018年3月13日
Coursera上Python课程(公开课)汇总推荐
AINLP
8+阅读 · 2018年3月11日
吴恩达机器学习课程
平均机器
9+阅读 · 2018年2月5日
Coursera上Python课程(公开课)汇总
数据挖掘入门与实战
6+阅读 · 2017年12月27日
【干货】卷积神经网络CNN学习笔记
机器学习研究会
15+阅读 · 2017年12月17日
分享 | 精选课程资源汇总
黑龙江大学自然语言处理实验室
10+阅读 · 2017年11月1日
课程 | Andrew Ng 深度学习课程笔记3
黑龙江大学自然语言处理实验室
3+阅读 · 2017年9月15日
Arxiv
4+阅读 · 2019年9月5日
S4Net: Single Stage Salient-Instance Segmentation
Arxiv
10+阅读 · 2019年4月10日
Arxiv
6+阅读 · 2018年3月29日
VIP会员
相关VIP内容
相关资讯
这份深度学习课程笔记获吴恩达点赞
全球人工智能
4+阅读 · 2018年3月13日
Coursera上Python课程(公开课)汇总推荐
AINLP
8+阅读 · 2018年3月11日
吴恩达机器学习课程
平均机器
9+阅读 · 2018年2月5日
Coursera上Python课程(公开课)汇总
数据挖掘入门与实战
6+阅读 · 2017年12月27日
【干货】卷积神经网络CNN学习笔记
机器学习研究会
15+阅读 · 2017年12月17日
分享 | 精选课程资源汇总
黑龙江大学自然语言处理实验室
10+阅读 · 2017年11月1日
课程 | Andrew Ng 深度学习课程笔记3
黑龙江大学自然语言处理实验室
3+阅读 · 2017年9月15日
Top
微信扫码咨询专知VIP会员