编辑:小舟、杜伟
讲 CS231n 的 Justin Johnson 在密歇根大学推出了一套计算机视觉的进阶课程。
课时 1:计算机视觉深度学习简介,包括历史背景和当前发展概述;
课时 2:图像分类,包括数据驱动方法、最近邻算法、超参数和交叉验证;
课时 3:线性分类器,包括 Softmax 或 SVM 分类器和 L2 正则化;
课时 4:优化,包括随机梯度下降、动量、AdaGrad、Adam 和二阶优化器;
课时 5:神经网络,包括特征转换、全连接网络、泛逼近(universal approximation )和凸性。
课时 6:反向传播,包括计算图、反向传播和矩阵乘法示例;
课时 7:卷积网络,包括卷积、池化和批归一化;
课时 8:CNN 架构,包括 AlexNet、VGG、ResNet、大小 VS 准确性、分组和可分离卷积以及神经架构搜索;
课时 9:硬件和软件,包括 CPU、GPU、TPU、动态与静态图以及 PyTorch 和 TensorFlow;
课时 10:神经网络训练 I,包括激活函数、数据预处理、权重初始化、数据增广和正则化(Dropout 等);
课时 11:神经网络训练 II,包括学习率方案、超参数优化、模型集成、迁移学习和大批量训练;
课时 12:递归网络,包括 RNN、LSTM、GRU、语言建模、序列到序列、图像标注和视觉问题;
课时 13:注意力,包括多模态注意力、自注意力和 Transformers;
课时 14:可视化和理解,包括特征可视化、对抗性示例以及 DeepDream 和风格迁移;
课时 15:目标检测,包括单级检测器和两级检测器;
课时 16:图像分割,包括语义分割、实例分割和关键点估计;
课时 17:3D 视觉,包括 3D 形状表示、深度估计、3D 形状预测以及立体像素、点云、SDF 和网格;
课时 18:视频,包括视频分类、早期和后期融合、3D CNN 和双流网络;
课时 19:生成模型 I,包括监督与无监督学习、判别与生成模型、自回归模型和变分自编码器;
课时 20:生成模型 II,包括变分更强的自编码器和生成对抗网络;
课时 21:强化学习,包括强化学习问题设置、贝尔曼方程、Q 学习和策略梯度;
课时 22:课程总结,包括课程回顾和计算机视觉的发展展望。
8月11日,旷视研究院基础模型算法研究员周亦庄将带来等三课,主要介绍图片分类任务、resnet18网络训练、模型测试保存和读取等相关内容。欢迎大家入群学习。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com