向AI转型的程序员都关注了这个号👇👇👇
大数据挖掘DT数据分析 公众号: datadw
这里搜录了吴恩达深度学习课程的链接和课程笔记视频链接。
https://zhuanlan.zhihu.com/p/30870804
新的课程和笔记视频出来后会及时更新。对笔记的持续复习和理解,会以零星思考的方式持续高频率累积更新。不习惯看视频笔记的小伙伴可以试试看笔记文档。感谢作者更新。
吴恩达全部课程共5门,现已推出4门
第一章:神经网络与深度学习 (笔记更新完毕)
第二章:改善深层神经网络 (笔记更新完毕)
第三章:结构化机器学习项目(笔记更新完毕)
第四章:卷积神经网络 (课程已出,学习中)
第五章:序列模型 (coursera2017.11月底开放课程)
以下为详细课程目录,对应链接在原文里面:
https://zhuanlan.zhihu.com/p/30870804
第一周 卷积神经网络
1.1 计算机视觉 computer vision 课程 文本笔记 视频笔记
1.2 边缘检测实例 edge detection example 课程 文本笔记 视频笔记 复习笔记
1.3 更多边缘检测 课程 文本笔记 视频笔记 弹幕笔记
1.4 padding 课程 文本笔记 视频笔记 弹幕笔记
1.5 卷积步长 strides 课程 文本笔记 视频笔记 弹幕笔记
1.6 卷积中'卷'的体现之处 Convolution over volumes 课程 文本笔记 视频笔记
1.7 单层卷积网络 one layer of convolutional network 课程 文本笔记 视频笔记
1.8 简单卷积网络示例 simple CNN 课程 文本笔记 视频笔记
1.9 池化层 pooling layer 课程 文本笔记 视频笔记
1.10 CNN model example LeNet-5 课程 文本笔记 视频笔记
1.11 CNN why convolution 课程 文本笔记 视频笔记
第二周 深度卷积神经网络:实例探究
2.01 为什么要做实例探究 课程 文本笔记 视频笔记
2.02 经典网络 LeNet, AlexNet, VGG16 课程 视频笔记
2.03 残差网络 Residual network 课程 视频笔记
2.04 残差网络为什么有用 Why ResNet works 课程 视频笔记
2.05 network in network and 1x1 convolution 课程 视频笔记
2.06 谷歌inception网络介绍 课程 视频笔记
2.07 Inception network 课程 视频笔记
2.08 使用开源实现方法 课程 视频笔记
2.09 迁移学习 transfer learing 课程 视频笔记
2.10 扩充数据 data augmentation 课程 视频笔记
2.11 计算机视觉现状 课程 视频笔记
第三周 目标检测
3.1 目标定位 object detection 课程 视频笔记
3.2 特征点检测 landmark detection 课程 视频笔记
3.3 目标检测 object detection 课程 视频课程
3.4 卷积移动窗口的实现 convolutional implementation of sliding window 课程 文本笔记
3.5 bounding box预测 课程 文本笔记
3.6 交集并集比 Intersection over union 课程 文本笔记
3.7 非极大集抑制 Non-max suppression 课程 文本笔记
3.8 Anchor boxes 课程 文本笔记
3.9 YOLO 算法 课程 文本笔记
3.10 R-CNN 算法 课程 文本笔记
第四周
4.1 人脸识别 face verification vs recognition 课程 文本笔记
4.2 one shot learning 课程 文本笔记
4.3 siamese network 课程 文本笔记
4.4 triplet loss 课程 文本笔记
4.5 face verification and binary classification 课程 文本笔记
4.6 neutral style transfer 课程 文本笔记
4.7 模型各层都在学什么?课程 文本笔记
4.8 neural transfer 损失函数 课程 文本笔记
4.9 content loss function 课程 文本笔记
4.10 style loss function 课程 文本笔记
4.11 从2D到1D和3D 课程 文本笔记
第一周 机器学习(ML)策略(1)
1.1 为什么是 ML 策略 Why ML Strategy 课程 笔记
1.2 正交化 Orthogonalization 课程 笔记 零星思考
1.3 单一数字评估指标 Simple Evaluation Metric 课程 笔记 零星思考
1.4 满足和优化指标 Optimizing and Satisficing Metric 课程 笔记 应用 零星思考
1.5 训练 / 开发 / 测试集划分 Train Dev Test Sets 课程 笔记 零星思考
1.6 开发集合测试集的大小 Dev Test Size 课程 笔记 零星思考
1.7 什么时候该改变开发 / 测试集和指标 课程 笔记 零星思考1,2
1.8 为什么是人的表现 Why human level performance 课程 笔记 零星思考
1.9 可避免偏差 Avoidable Bias 课程 笔记 零星思考
1.10 理解人的表现 理解 human level performance 课程 笔记 应用 零星思考
1.11 超过人的表现 超越 human level performance 课程 笔记 零星思考
1.12 改善你的模型的表现 改进模型表现 课程 笔记 零星思考
第二周 机器学习(ML)策略(2)
2.1 进行误差分析 Error Analysis 课程 笔记 零星思考
2.2 清楚标注错误的数据 Clean up incorrectly labeled data 课程 笔记1 笔记2 零星思考
2.3 快速搭建你的第一个系统,并进行迭代 课程 笔记 零星思考
2.4 在不同的划分上进行训练并测试 课程 笔记 零星思考
2.5 不匹配数据划分的偏差和方差 课程 笔记 零星思考
2.6 定位数据不匹配 如何解决train-dev分布不同问题 课程 笔记1 2 零星思考
2.7 迁移学习 Transfer Learning 课程 笔记 零星思考
2.8 多任务学习 Multi-task Learning 课程 笔记 零星思考
2.9 什么是端到端的深度学习 课程 笔记 零星思考
keywords: end-to-end learning, feature_extraction
2.10 是否要使用端到端的深度学习 课程 笔记 零星思考
第一周 深度学习的实用层面
1.1 训练 / 开发 / 测试集 课程 笔记
1.2 偏差 / 方差 课程 笔记
1.3 机器学习基础 课程 笔记
1.4 正则化 课程 笔记
1.5 为什么正则化可以减少过拟合? 课程 笔记
1.6 Dropout 正则化 课程 笔记
1.7 理解 Dropout 课程 笔记
1.8 其他正则化方法 课程 笔记
1.9 正则化输入 课程 笔记 零星思考
1.10 梯度消失与梯度爆炸 课程 笔记
1.11 神经网络的权重初始化 课程 笔记
1.12 梯度的数值逼近 课程 笔记
1.13 梯度检验 课程 笔记
1.14 关于梯度检验实现的注记 课程 笔记
第二周 优化算法
2.1 Mini-batch 梯度下降法 课程 笔记1 笔记2
2.2 理解 mini-batch 梯度下降法 课程 笔记同上
2.3 指数加权平均 课程 笔记
2.4 理解指数加权平均 课程 笔记
2.5 指数加权平均的偏差修正 课程 笔记
2.6 动量梯度下降法 课程 笔记
2.7 RMSprop 课程 笔记1 笔记2
2.8 Adam 优化算法 课程 笔记
2.9 学习率衰减 课程 笔记
2.10 局部最优的问题 课程 笔记
第三周 超参数调试、Batch正则化和程序框架
3.1 调试处理 课程 笔记
3.2 为超参数选择合适的范围 课程 笔记
3.3 超参数训练的实践:Pandas VS Caviar 课程 笔记
3.4 正则化网络的激活函数 课程 笔记1 笔记2 零星思考
BatchNormalization, standardization
3.5 将 Batch Norm 拟合进神经网络 课程 笔记 同上
3.6 Batch Norm 为什么奏效? 课程 笔记 同上
3.7 测试时的 Batch Norm 课程 笔记 新笔记 同上
3.8 Softmax 回归 课程 笔记 零星思考
3.9 训练一个 Softmax 分类器 课程 笔记 同上
3.10 深度学习框架 课程 笔记
3.11 TensorFlow 课程 笔记
第一周 深度学习概论
1.2 什么是神经网络? 课程 笔记
1.3 用神经网络进行监督学习 课程 笔记
1.4 为什么深度学习会兴起? 课程 笔记
第二周 神经网络基础
2.1 二分分类 课程 笔记
2.2 logistic 回归 课程 笔记
2.3 logistic 回归损失函数 课程 笔记
2.4 梯度下降法 课程 笔记
2.5 导数 课程 笔记
2.6 更多导数的例子 课程 笔记
2.7 计算图 课程 笔记
2.8 计算图的导数计算 课程 笔记
2.9 logistic 回归中的梯度下降法 课程 笔记
2.10 m 个样本的梯度下降 课程 笔记
2.11 向量化 课程 笔记
2.12 向量化的更多例子 课程 笔记
2.13 向量化 logistic 回归 课程 笔记
2.14 向量化 logistic 回归的梯度输出 课程 笔记
2.15 Python 中的广播 课程 笔记
2.16 关于 python / numpy 向量的说明 课程 笔记
2.17 Jupyter / Ipython 笔记本的快速指南 课程
2.18 (选修)logistic 损失函数的解释 课程 笔记
第三周 浅层神经网络
3.1 神经网络概览 课程 笔记
3.2 神经网络表示 课程 笔记
3.3 计算神经网络的输出 课程 笔记
3.4 多个例子中的向量化 课程 笔记
3.5 向量化实现的解释 课程 笔记
3.6 激活函数 课程 笔记
3.7 为什么需要非线性激活函数? 课程 笔记
3.8 激活函数的导数 课程 笔记
3.9 神经网络的梯度下降法 课程 笔记
3.10 (选修)直观理解反向传播 课程 笔记
3.11 随机初始化 课程 笔记
第四周 深层神经网络
4.1 深层神经网络 课程 笔记
4.2 前向和反向传播 课程 笔记
4.3 深层网络中的前向传播 课程 笔记
4.4 核对矩阵的维数 课程 笔记
4.5 为什么使用深层表示 课程 笔记
4.6 搭建深层神经网络块 课程 笔记
4.7 参数 VS 超参数 课程 笔记
4.8 这和大脑有什么关系? 课程 笔记
人工智能大数据与深度学习
搜索添加微信公众号:weic2c
长按图片,识别二维码,点关注
大数据挖掘DT数据分析
搜索添加微信公众号:datadw
教你机器学习,教你数据挖掘
长按图片,识别二维码,点关注