如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作。那么我真诚的向大家推荐,贪心学院《高阶机器学习研修班》,目前全网上应该找不到类似体系化的课程。课程精选了四大主题进行深入的剖析讲解,四个模块分别为凸优化、图神经网络、强化学习、贝叶斯深度学习。
适合什么样的人来参加呐?
第一章:凸优化介绍
| 从优化角度理解机器学习
| 凸优化的重要性
| 常见的凸优化问题
| 线性规划以及Simplex Method
| Stochastic LP
| 运输问题讲解
| 投放优化问题讲解
| 凸集的判断
| First-order Convexity
| Second-order convexity
| Operations preserve convexity
| 二次规划问题(QP)
| 最小二乘问题
| 股票投资组合优化
| 常见的凸优化问题类别
| 半定规划问题(semi-definite programming)
| 几何规划问题(geometric programming)
| 非凸函数的优化
| 松弛化(relaxazation)
| 整数规划(integer programming)
| 打车中的匹配问题
| 量化投资概述
| 如何阅读K线图
| 基于规则的量化策略
| 基于多因子模型的量化策略
| 基于机器学习模型的量化策略
| 基于LP, QP优化的量化策略
| Efficient Frontier, Sharp Ratio
| 量化平台:量化策略编写实战作业讲解SDP
第五周:对偶(Duality)
| 拉格朗日对偶函数
| 对偶的几何意义
| Weak and Strong Duality
| KKT条件
| LP, QP, SDP的对偶问题
| 对偶的其他应用
| 典机器学习模型的对偶推导及实现
第六章:一阶与二阶优化技术
| Gradient Descent
| Subgradient Method
| Proximal Gradient Descent
| Projected Gradient Descent
| Stochastic Gradient Descent与收敛
| Newton's Method
| Quasi-Newton Method
| L-BFGS
| Mirror Ascent
| 分布式SGD
| Interior Point Method
| ADMM
| Sparsity与优化
| Combinatorial优化
| 空间向量和图论
| Inner Product, Hilbert Space
| 傅里叶变化
| Eigenfunction, Eigenvalue
| CNN的卷积和池化
| 介绍cnn的卷积层
| 如何卷积,信息如何传递
| 池化层的作用和基本设计
| Subgraph
| Network Motif
| Network Community Detection
| 拉普拉斯算子
| 拉普拉斯矩阵
| SVD
| QR分解
| 基本向量机分解
| block分解
| 拉普拉斯算子和矩阵的数学意义
| 卷积的几何意义
| 图卷积
| ChebNet
| GCN
| Graph Pooling
| MCMC介绍
| Importance Sampling
| Rejection Sampling
| Spatial Convolution
| Mixture Model Network
| Attention机制
| Graph attention network
| Edge Convolution
| 近似优化问题
| 减少计算量的介绍
| NRI
| Relative GCN
| Knowledge GCN
| ST-GCN
| Graphsage的设计
| Graphsage的应用
| GNN
| Deepwalk
| Node2vec
| Struc2vec
| HyperGCN
| HGCN的设计和应用
第一章:强化学习基础(1)
| Markov Decision Process
| Bellman Equation
| Dynamic Programming
| Model-free Prediction
| Monte Carlo Learning
| TD Learning
| Model free Control
| On-Policy Monte Carlo Control
| On-Policy TD Learning
| SARSA, SARSA Lambda
| Off-policy
| Importance Sampling, Q-Learning
| Policy Gradient
| Deep Reinforcement Learning
| Actor Critic
| Advanced Reinforcement Learning
| Multi Armed Bandits
| Explore and Exploit
| Thompson Sampling
| Epsilon Greegy
| Upper Confidence Bound
| Reinforcement Learning and Recommendation system
| Epsilon greedy
| UCB
| Multi agent Reinforcement Learning
| Sparse reward Design
| Inverse RL
| Master the game of Go without human knowledge
| AlphaGo 围棋强化学习论文解读
| Reinforcement Learning Application
| Reinforcement Learning with NLP
| Reinforcment Learning with quatitive trading
| Reinforcement Learning with Game.
| SeqGan 代码讲解
| 贝叶斯定理
| MLE,MAP以及贝叶斯估计
| 集成模型与贝叶斯方法比较
| 贝叶斯推理中的困难
| 贝叶斯近似算法介绍
| 贝叶斯线性回归
| 案例:基于贝叶斯线性回归的股价预测
| 线性回归于岭回归
| 贝叶斯线性回归模型
| Probabilistic Programming
| Edwin的使用以及实战
| 从朴素贝叶斯到贝叶斯朴素贝叶斯
| 贝叶斯朴素贝叶斯模型的生成过程
| 概率图表示方法
| 主题模型的应用
| 主题模型的生成过程
| 基于LDA的文本分析
| LDA的应用场景
| LDA应用在文本分析中
| LDA代码剖析
| MCMC采样技术介绍
| 吉布斯采样
| Bayesian NB的求解
| LDA与吉布斯采样
| 各类采样技术
| Importance Sampling
| Rejection Sampling
| KL散度
| ELBo的构造
| 变分法目标函数
| 坐标下降法
| 求解LDA的参数
| 基于贝叶斯深度学习的推荐系统搭建
| SVI的介绍
| 贝叶斯深度学习
| 基于SVI的求解
| 贝叶斯深度学习的应用
| 贝叶斯与VAE
| Reparameterization Trick
| 深度生成模型
| 基于VAE的文本生成
| 贝叶斯模型与不确定性
| MC Dropout介绍
| MC Dropout证明
| 贝叶斯序列模型
| 词性标注于实体识别
| 基于贝叶斯图神经网络的文本分析
| 基于贝叶斯神经网络的命名实体识别
| Adversial Learning介绍
| Adversial Attack
| 基于GNN的Adversial Learning
| 高斯分布
| 高斯过程
| 超参数的学习
| AutoML技术
| 贝叶斯优化及应用
区别于劣质的PPT讲解,导师全程现场推导,让你在学习中有清晰的思路,深刻的理解算法模型背后推导的每个细节。更重要的是可以清晰地看到各种模型之间的关系!帮助你打通六脉!