学界 | 面向工程师的机器学习简介:理论、算法、概念全覆盖

2017 年 9 月 15 日 机器之心
学界 | 面向工程师的机器学习简介:理论、算法、概念全覆盖

选自arXiv

机器之心编译

参与:Panda、蒋思源、黄小天


人工智能技术已经成为当前技术变革的主要推动力之一,从计算机科学到工程学等许多科学技术领域都在竭尽全力想用自动化的方法创造更大的价值。要想做到这一点,工程师当然必须要对当前最具潜力的机器学习方法有一个大致了解。伦敦国王学院信息学习教授 Osvaldo Simeone 近日在 arXiv 上公开发布了长达 200 页的最新专著,为工程师提供了全面细致的机器学习入门介绍。在本文中,机器之心对这本专著的摘要及目录部分进行了介绍。专著原文可在 arXiv 下载,工程师和准工程师一定不要错过。


为工程师写的机器学习简介(A Brief Introduction to Machine Learning for Engineers)



专著地址:https://arxiv.org/abs/1709.02840


摘要


本专著的目标是介绍机器学习领域内的关键概念、算法和理论框架,涵盖了监督学习与无监督学习、统计学习理论、概率图模型和近似推断等方向。本专著的目标读者是具有概率学和线性代数背景的电气工程师。本书基于第一原理(first principle)写作,并按照有清晰定义的分类方式对其中的主要思想进行了组织,其中的类别包含鉴别式模型和生成式模型、频率论者和贝叶斯方法、准确推断和近似推断、有向模型和无向模型、凸优化和非凸优化。本书中的数学框架使用了信息论的描述方式,以便工具具有统一性。书中提供了简单且可重复的数值示例,以便读者了解相关的关键动机和结论。本专著的目的并不是要为每个特定类别中已有的大量解决方案提供详尽的细节描述(这些描述读者可参阅教科书和论文了解),而是为了给工程师提供一个切入点,以便他们能借此进一步深入机器学习相关文献。


1 引言

1.1 机器学习

1.2 目标和纲要


2 线性回归入门介绍

2.1 监督学习

2.2 推断

2.3 频率论者

2.4 贝叶斯方法

2.5 最小描述长度(MDL)

2.6 解释与因果关系

2.7 信息论指标

2.8 总结


3 概率学习模型

3.1 指数分布族

3.2 最大熵性质

3.3 频率学习(Frequentist Learning)

3.4 贝叶斯学习

3.5 基于能量的模型(Energy-based Models)

3.6 通过广义线性模型(GLM)的监督学习

3.7 总结


4 分类

4.1 将分类作为监督学习问题

4.2 随机梯度下降

4.3 判别式确定性模型

4.4 判别式概率模型

4.5 生成式概率模型

4.6 多类别分类

4.7 非线性判别式模型:深度神经网络

4.8 Boosting

4.9 总结


5 统计学习理论

5.1 监督学习的一种形式框架

5.2 PAC 可学习性和样本复杂性

5.3 有限假设类别的 PAC 可学习性

5.4 VC 维和 PAC 学习的基本定理

5.5 总结


6 无监督学习

6.1 无监督学习

6.2 K-均值聚类

6.3 ML、ELBO 和 EM

6.4 有向生成模型

6.5 无向生成模型

6.6 判别式模型

6.7 自编码器

6.8 Ranking 

6.9 总结


7 概率图模型

7.1 介绍

7.2 贝叶斯网络

7.3 马尔可夫随机场

7.4 概率图模型中的贝叶斯推断

7.5 总结


8 近似推断和学习

8.1 蒙特卡罗方法

8.2 变分推断

8.3 基于蒙特卡罗的变分推断

8.4 近似学习

8.5 总结


9 结语


附录


A 附录 A:信息度量

A.1 熵

A.2 条件熵和互信息

A.3 散度度量

B 附录 B:KL 散度和指数分布族


致谢


参考文献


介绍


当我在教授机器学习课程时,有着工程学背景的同事和学生经常问及:如何更好地入门机器学习。我通常会以书籍推荐的形式回应——一般但稍微过时的介绍,请读这本书;对于基于概率模型方法的详细调查,请查看这些索引;如果想要了解统计学习,我觉得这篇文章很有用;如此等等。结果证明这些回答无法使我与提问者满意。书籍很多很厚,使得繁忙的工程学教授和学生望而却步。因此我首次撰写了这篇专论,一篇基础且体量适当的入门书,其中通过简单的术语面向工程师统一介绍了机器学习主要思想和原理,同时涵盖了其最新发展和文献指导,以供进一步研究。


第二章,线性回归入门介绍


第二章我们回顾了三个核心的学习框架,即频率论者(frequentist)、贝叶斯和 MDL。频率论者为数据假定了真实、未知分布的存在,并致力于学习一个预测器(predictor),从而更好地泛化来自这一分布的不可见数据。这可通过学习一个插入最优预测器表达式的概率模型或者直接解决预测变量上的 ERM 问题而完成。贝叶斯方法输出一个预测分布,可通过解决计算不可见标签上后验分布的推断问题而整合先验信息与数据。最后,MDL 方法旨在筛选一个模型,允许使用最少的比特描述数据,因此去除在未观察实例上泛化的任务。本章也广泛讨论了过拟合的关键问题,展示了学习算法的性能可就偏差和评估错误获得理解。运行实例是用于高斯模型的线形回归中的一个。下一章将会介绍更多学习构建和学习常见概率模型的工具。


第三章,概率学习模型


本章中,我们回顾了概率模型的一个重要类别——指数族,它被广泛用作学习算法的组件以完成监督、无监督学习任务。这一类别成员的关键属性是由同一家族中的梯度 LL 和共轭先验的可用性采用的简单形式。下一章我们将讲述指数族在解决分类问题方面的不同应用模型。


第四章,分类


本章扼要概述了分类的关键问题。按照第二章提出的分类系统,我们依据用来连接解释性变量与标签的模型类型划分了学习算法。尤其地,我们描述了线性与非线性的确定性判别模型,涵盖了用于多层神经网络的感知机算法、SVM、反向传播;聚焦于 GLM 的概率判别模型;包括 QDA 和 LDA 在内的概率生成模型。我们同样介绍了混合模型与提升方法(Boosting)。尽管本章聚焦在算法方面,下一章将讨论一个理论框架,研究监督学习的性能。


第五章,统计学习理论


本章描述了经典的 PAC 框架,并用它分析监督学习的泛化性能。我们知道 VC 维理论定义了模型的能力,这就意味着 VC 维在给定模型准确度和置信度上度量了其学习所需要的样本数量。在下一章中,我们将从监督学习进一步讨论无监督学习问题。


第六章,无监督学习


在本章节中,我们回顾了无监督学习的基础知识。优秀的无监督学习方法一般都通过隐变量或潜在变量帮助解释数据的结构。我们首先通过期望最大化算法(EM)回顾了机器学习及各种变体。随后介绍了机器学习生成模型 GAN,该方法使用从数据中学到的散度度量以代替 KL 散度。随后接着回顾了通过 InfoMax 原则训练的判别模型和自编码器。在下一章节中,我们通过讨论概率图模型的强大框架而扩展了对概率模型的理解。


第七章,概率图模型


概率图模型将关于数据结构的先验信息编码为因果关系的形式,即通过有向图和贝叶斯网络(BN),或通过无向图和马尔可夫随机场(MRF)编码为相互之间的依赖性关系。这种结构可以表示为条件独立性属性。概率图模型所编码的结构属性能有效地控制模型的性能,因此能以可能的偏差为代价减少过模型拟合。概率图模型也推动执行贝叶斯推断,至少在树型结构的图中是这样的。下一章将讨论贝叶斯推断和关联学习比较重要的问题,当然具体的方法对计算力的需求就太大了。


第八章,近似推断与学习


本章通过关注 MC 和 VI 方法概览了近似推断技术。并且重点关注了选择不同类型的近似准则及其所产生的影响,例如介绍 M- 和 I- 映射。同样我们还讨论了在学习问题上使用近似推断的方法。此外,我们还讨论了本章目前最优的技术进展。


第九章,结语


这一章节主要是简单介绍机器学习,尤其是强调那些统一框架下的概念。除了前文纵览机器学习的各种方法,我们在这年还提供了那些只是提到或简要描述的重要概念及其扩展方向,因此下面将提供前文没有介绍的重要概念列表。


隐私:在许多应用中,用于训练机器学习算法的数据集包含了很多敏感的私人信息,例如推荐系统中的个人偏好和医疗信息等等。因此确保学习的模型并不会揭露任何训练数据集中的个人记录信息就显得十分重要了。这一约束能使用差分隐私(differential privacy)概念形式化表达。保证个人数据点隐私的典型方法包括在执行 SGD 训练模型时对梯度添加随机噪声,该方法依赖于使用不同的训练数据子集混合所学习到的专家系统 [1]。


鲁棒性:已经有研究者表明不同的机器学习模型包含神经网络对数据集中很小的变化十分敏感,它们会对次要的、正确选择的和解释变量中的变动给出错误的响应。为了确保模型关于对抗样本具有鲁棒性,修正训练过程是具有重要实践意义的研究领域 [37]。


计算平台和编程框架:为了扩展机器学习应用,利用分布式计算架构和相应的标准编程框架 [9] 是十分有必要的。


迁移学习:针对特定任务并使用给定数据集进行训练的机器学习模型,目前如果需要应用到不同的任务还需要重新初始化和训练。迁移学习研究领域即希望将预训练模型从一个任务获得的专业知识迁移到另一个任务中。神经网络的典型解决方案规定了通用隐藏层的存在,即对不同任务训练的神经网络有一些隐藏层是相同的。


域适应(Domain adaptation):在许多学习问题中,可用数据和测试数据的分布并不相同。例如在语音识别中,模型学习时所使用的用户数据和训练后其他用户使用该模型所提供的语音数据是不同的。广义 PAC 理论分析了这种情况,其将测试分布作为测试和训练的分布差异函数而获得了泛化误差边界。


有效通信学习(Communication-efficient learning):在分布式计算平台上,数据通常被分配在处理器中,处理器中的通信造成了延迟与能耗。一个重要的研究问题是找到学习性能与通信成本之间的最佳折衷。


强化学习:强化学习是机器学习方法最近大获成功的根本核心,获得了玩视频游戏或与人类选手对决的必要技能。在强化学习中,一方想要学习世界中已观察到的状态 x 和动作 t 之间的最优映射,比如说 p(t|x, θ)。不同于监督学习,强化学习中最优动作不可知,机器会由于采取的动作而获得一个奖励/惩罚信号。其中一个流行的方法是深度强化学习,它通过神经网络建模映射 p(t|x, θ)。通过使用强化方法评估梯度并借助 SGD,这被训练从而最大化平均奖励。 



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

登录查看更多
13

相关内容

当精确的学习和推论在计算上难以解决时,近似推断方法可以通过权衡计算时间来提高准确性,从而从大数据中学习现实模型。

为工程师写的机器学习简介(A Brief Introduction to Machine Learning for Engineers)

https://arxiv.org/abs/1709.02840

摘要

本专著的目标是介绍机器学习领域内的关键概念、算法和理论框架,涵盖了监督学习与无监督学习、统计学习理论、概率图模型和近似推断等方向。本专著的目标读者是具有概率学和线性代数背景的电气工程师。本书基于第一原理(first principle)写作,并按照有清晰定义的分类方式对其中的主要思想进行了组织,其中的类别包含鉴别式模型和生成式模型、频率论者和贝叶斯方法、准确推断和近似推断、有向模型和无向模型、凸优化和非凸优化。本书中的数学框架使用了信息论的描述方式,以便工具具有统一性。书中提供了简单且可重复的数值示例,以便读者了解相关的关键动机和结论。本专著的目的并不是要为每个特定类别中已有的大量解决方案提供详尽的细节描述(这些描述读者可参阅教科书和论文了解),而是为了给工程师提供一个切入点,以便他们能借此进一步深入机器学习相关文献。

成为VIP会员查看完整内容
0
81

【导读】《机器学习:贝叶斯和优化的视角》是雅典大学信息学和通信系的教授Sergios Theodoridis的经典著作,对所有主要的机器学习方法和新研究趋势进行了深入探索,涵盖概率和确定性方法以及贝叶斯推断方法。非常值得学习。

Sergios Theodoridis教授是雅典大学信息学和通信系的教授,香港中文大学(深圳)客座教授。他的研究领域是信号处理和机器学习。他的研究兴趣是自适应算法,分布式和稀疏性感知学习,机器学习和模式识别,生物医学应用中的信号处理和学习以及音频处理和检索。

他的几本著作与合著蜚声海内外,包括《机器学习:贝叶斯和优化的视角》以及畅销书籍《模式识别》。他是2017年EURASIP Athanasios Papoulis奖和2014年EURASIP Meritorious Service奖的获得者。

http://cgi.di.uoa.gr/~stheodor/

机器学习:贝叶斯和优化方法

本书对所有主要的机器学习方法和新研究趋势进行了深入探索,涵盖概率和确定性方法以及贝叶斯推断方法。其中,经典方法包括平均/小二乘滤波、卡尔曼滤波、随机逼近和在线学习、贝叶斯分类、决策树、逻辑回归和提升方法等,新趋势包括稀疏、凸分析与优化、在线分布式算法、RKH空间学习、贝叶斯推断、图模型与隐马尔可夫模型、粒子滤波、深度学习、字典学习和潜变量建模等。全书构建了一套明晰的机器学习知识体系,各章内容相对独立,物理推理、数学建模和算法实现精准且细致,并辅以应用实例和习题。本书适合该领域的科研人员和工程师阅读,也适合学习模式识别、统计/自适应信号处理和深度学习等课程的学生参考。

成为VIP会员查看完整内容
0
218

高斯过程(GPs)为核机器的学习提供了一种有原则的、实用的、概率的方法。在过去的十年中,GPs在机器学习社区中得到了越来越多的关注,这本书提供了GPs在机器学习中理论和实践方面长期需要的系统和统一的处理。该书是全面和独立的,针对研究人员和学生在机器学习和应用统计学。

这本书处理监督学习问题的回归和分类,并包括详细的算法。提出了各种协方差(核)函数,并讨论了它们的性质。从贝叶斯和经典的角度讨论了模型选择。讨论了许多与其他著名技术的联系,包括支持向量机、神经网络、正则化网络、相关向量机等。讨论了包括学习曲线和PAC-Bayesian框架在内的理论问题,并讨论了几种用于大数据集学习的近似方法。这本书包含说明性的例子和练习,和代码和数据集在网上是可得到的。附录提供了数学背景和高斯马尔可夫过程的讨论。

成为VIP会员查看完整内容
0
123

对因果推理的简明和自成体系的介绍,在数据科学和机器学习中越来越重要。

因果关系的数学化是一个相对较新的发展,在数据科学和机器学习中变得越来越重要。这本书提供了一个独立的和简明的介绍因果模型和如何学习他们的数据。在解释因果模型的必要性,讨论潜在的因果推论的一些原则,这本书教读者如何使用因果模型:如何计算干预分布,如何从观测推断因果模型和介入的数据,和如何利用因果思想经典的机器学习问题。所有这些主题都将首先以两个变量的形式进行讨论,然后在更一般的多元情况下进行讨论。对于因果学习来说,二元情况是一个特别困难的问题,因为经典方法中用于解决多元情况的条件独立不存在。作者认为分析因果之间的统计不对称是非常有意义的,他们报告了他们对这个问题十年来的深入研究。

本书对具有机器学习或统计学背景的读者开放,可用于研究生课程或作为研究人员的参考。文本包括可以复制和粘贴的代码片段、练习和附录,其中包括最重要的技术概念摘要。

首先,本书主要研究因果关系推理子问题,这可能被认为是最基本和最不现实的。这是一个因果问题,需要分析的系统只包含两个可观测值。在过去十年中,作者对这个问题进行了较为详细的研究。本书整理这方面的大部分工作,并试图将其嵌入到作者认为对研究因果关系推理问题的选择性至关重要的更大背景中。尽管先研究二元(bivariate)案例可能有指导意义,但按照章节顺序,也可以直接开始阅读多元(multivariate)章节;见图一。

第二,本书提出的解决方法来源于机器学习和计算统计领域的技术。作者对其中的方法如何有助于因果结构的推断更感兴趣,以及因果推理是否能告诉我们应该如何进行机器学习。事实上,如果我们不把概率分布描述的随机实验作为出发点,而是考虑分布背后的因果结构,机器学习的一些最深刻的开放性问题就能得到最好的理解。
成为VIP会员查看完整内容
0
317

数学基础

  • 1.线性代数基础
    • 一、基本知识
    • 二、向量操作
    • 三、矩阵运算
    • 四、特殊函数
  • 2.概率论基础
    • 一、概率与分布
    • 二、期望和方差
    • 三、大数定律及中心极限定理
    • 五、常见概率分布
    • 六、先验分布与后验分布
    • 七、信息论
    • 八、其它
  • 3.数值计算基础
    • 一、数值稳定性
    • 二、梯度下降法
    • 三、二阶导数与海森矩阵
    • 四、牛顿法
    • 五、拟牛顿法
    • 六、 约束优化
  • 4.蒙特卡洛方法与 MCMC 采样
    • 一、蒙特卡洛方法
    • 二、马尔可夫链
    • 三、MCMC 采样

统计学习

  • 0.机器学习简介
    • 一、基本概念
    • 二、监督学习
    • 三、机器学习三要素
  • 1.线性代数基础
    • 一、线性回归
    • 二、广义线性模型
    • 三、对数几率回归
    • 四、线性判别分析
    • 五、感知机
  • 2.支持向量机
    • 一、 线性可分支持向量机
    • 二、线性支持向量机
    • 三、非线性支持向量机
    • 四、支持向量回归
    • 五、SVDD
    • 六、序列最小最优化方法
    • 七、其它讨论
  • 3.朴素贝叶斯
    • 一、贝叶斯定理
    • 二、朴素贝叶斯法
    • 三、半朴素贝叶斯分类器
    • 四、其它讨论
  • 4.决策树
    • 一、 原理
    • 二、 特征选择
    • 三、生成算法
    • 四、剪枝算法
    • 五、CART 树
    • 六、连续值、缺失值处理
    • 七、多变量决策树
  • 5.knn
    • 一、k 近邻算法
    • 二、 kd树
  • 6.集成学习
    • 一、集成学习误差
    • 二、 Boosting
    • 三、Bagging
    • 四、集成策略
    • 五、多样性分析
  • 7.梯度提升树
    • 一、提升树
    • 二、xgboost
    • 三、LightGBM
  • 8.特征工程
    • 一、缺失值处理
    • 二、特征编码
    • 三、数据标准化、正则化
    • 四、特征选择
    • 五、稀疏表示和字典学习
    • 六、多类分类问题
    • 七、类别不平衡问题
  • 9.模型评估
    • 一、泛化能力
    • 二、过拟合、欠拟合
    • 三、偏差方差分解
    • 四、参数估计准则
    • 五、泛化能力评估
    • 六、训练集、验证集、测试集
    • 七、性能度量
    • 八、超参数调节
    • 九、传统机器学习的挑战
  • 10.降维
    • 一、维度灾难
    • 二、主成分分析 PCA
    • 三、核化线性降维 KPCA
    • 四、流形学习
    • 五、度量学习
    • 六、概率PCA
    • 七、独立成分分析
    • 八、t-SNE
    • 九、LargeVis
  • 11.聚类
    • 一、性能度量
    • 二、原型聚类
    • 三、密度聚类
    • 四、层次聚类
    • 五、谱聚类
    • 12.半监督学习
  • 半监督学习
    • 一、生成式半监督学习方法
    • 二、半监督 SVM
    • 三、图半监督学习
    • 四、基于分歧的方法
    • 五、半监督聚类
    • 六、 总结
  • 13.EM算法
    • 一、示例
    • 二、EM算法原理
    • 三、EM算法与高斯混合模型
    • 四、EM 算法与 kmeans 模型
    • 五、EM 算法的推广
  • 14.最大熵算法
    • 一、最大熵模型MEM
    • 二、分类任务最大熵模型
    • 三、最大熵的学习
  • 15.隐马尔可夫模型
    • 一、隐马尔可夫模型HMM
    • 二、 HMM 基本问题
    • 三、 最大熵马尔科夫模型MEMM
  • 16.概率图与条件随机场
    • 一、概率图模型
    • 二、贝叶斯网络
    • 三、马尔可夫随机场
    • 四、条件随机场 CRF
  • 17.边际概率推断
    • 一、精确推断
    • 二、近似推断
  • 18.主题模型
    • 一、Unigram Model
    • 二、pLSA Model
    • 三、LDA Model
    • 四、LDA优化
    • 五、sentence-LDA
    • 六、模型讨论

深度学习

  • 0.深度学习简介
    • 一、 介绍
    • 二、历史
  • 1.深度前馈神经网络
    • 一、基础
    • 二、损失函数
    • 三、输出单元
    • 四、隐单元
    • 五、结构设计
    • 六、历史小记
  • 2.反向传播算法
    • 一、链式法则
    • 二、反向传播
    • 三、算法实现
    • 四、自动微分
  • 3.正则化
    • 一、参数范数正则化
    • 二、显式约束正则化
    • 三、数据集增强
    • 四、噪声鲁棒性
    • 五、早停
    • 六、参数相对约束
    • 七、dropout
    • 八、对抗训练
    • 九、正切传播算法
    • 十、其它相关
  • 4.最优化基础
    • 一、代价函数
    • 二、神经网络最优化挑战
    • 三、 mini-batch
    • 四、基本优化算法
    • 五、自适应学习率算法
    • 六、二阶近似方法
    • 七、共轭梯度法
    • 八、优化策略和元算法
    • 九、参数初始化策略
    • 十、Normalization
    • 十一、Online Learning
  • 5.卷积神经网络
    • 一、卷积运算
    • 二、卷积层、池化层
    • 三、基本卷积的变体
    • 四、应用
    • 五、 历史和现状
  • 5.1.CNN之图片分类
    • 一、LeNet
    • 二、AlexNet
    • 三、VGG-Net
    • 四、Inception
    • 五、ResNet
    • 六、ResNet 变种
    • 七、SENet
    • 八、 DenseNet
    • 九、小型网络
  • 6.循环神经网络
    • 一、RNN计算图
    • 二、训练算法
    • 三、长期依赖
    • 四、常见 RNN 变种
  • 7.Transformer
    • 一、Transformer
    • 二、Universal Transformer
    • 三、Transformer XL
    • 四、GPT
    • 五、BERT
    • 六、ERNIE
    • 七、XLNet
    • 八、MT-DNN
    • 九、BERT 扩展
  • 8.词向量
    • 一、向量空间模型 VSM
    • 二、LSA
    • 三、Word2Vec
    • 四、GloVe
    • 五、FastText
    • 六、ELMo
    • 七、变种
  • 9.传统 CTR 预估模型
    • 一、LR 模型
    • 二、POLY2 模型
    • 三、FM模型
    • 四、FFM模型
    • 五、GBDT-LR 模型
    • 六、FTRL模型
    • 七、LS-PLM 模型
  • 10.工程实践指导原则
    • 一、性能度量
    • 二、默认的基准模型
    • 三、决定是否收集更多数据
    • 四、选择超参数
    • 五、调试策略
    • 六、示例:数字识别系统
    • 七、数据预处理
    • 八、变量初始化
    • 九、结构设计

工具

CRF

  • CRF++
    • 一、安装
    • 二、使用
    • 三、Python接口
    • 四、常见错误 lightgbm
  • lightgbm使用指南
    • 一、安装
    • 二、调参
    • 三、进阶
    • 四、API
    • 五、Docker

xgboost

  • xgboost使用指南
    • 一、安装
    • 二、调参
    • 三、外存计算
    • 四、 GPU计算
    • 五、单调约束
    • 六、 DART booster
    • 七、Python API
    • scikit-learn
  • 1.预处理
    • 一、特征处理
    • 二、特征选择
    • 三、字典学习
    • 四、PipeLine
  • 2.降维
    • 一、PCA
    • 二、MDS
    • 三、Isomap
    • 四、LocallyLinearEmbedding
    • 五、FA
    • 六、FastICA
    • 七、t-SNE
  • 3.监督学习模型
    • 一、线性模型
    • 二、支持向量机
    • 三、贝叶斯模型
    • 四、决策树
    • 五、KNN
    • 六 、AdaBoost
    • 七、梯度提升树
    • 八、Random Forest
  • 4.模型评估
    • 一、数据集切分
    • 二、性能度量
    • 三、验证曲线 && 学习曲线
    • 四、超参数优化
  • 5.聚类模型
    • 一、KMeans
    • 二、DBSCAN
    • 三、MeanShift
    • 四、AgglomerativeClustering
    • 五、BIRCH
    • 六、GaussianMixture
    • 七、SpectralClustering
  • 6.半监督学习模型
    • 一、标签传播算法
  • 7.隐马尔可夫模型
    • 一、Hmmlearn
    • 二、seqlearn

spark

  • 1.基础概念
    • 一、核心概念
    • 二、安装和使用
    • 三、 pyspark shell
    • 四、独立应用
  • 2.rdd使用
    • 一、概述
    • 二、创建 RDD
    • 三、转换操作
    • 四、行动操作
    • 五、其他方法和属性
    • 六、持久化
    • 七、分区
    • 八、混洗
  • 3.dataframe使用
    • 一、概述
    • 二、SparkSession
    • 三、DataFrame 创建
    • 四、 DataFrame 保存
    • 五、DataFrame
    • 六、Row
    • 七、Column
    • 八、GroupedData
    • 九、functions
  • 4.累加器和广播变量
    • 一、累加器
    • 二、广播变量

numpy

  • numpy 使用指南
    • 一、 ndarray
    • 二、 ufunc 函数
    • 三、 函数库
    • 四、数组的存储和加载

scipy

  • scipy 使用指南
    • 一、 常数和特殊函数
    • 二、 拟合与优化
    • 三、线性代数
    • 四、 统计
    • 五、数值积分
    • 六、 稀疏矩阵

matplotlib

  • matplotlib 使用指南
    • 一、matplotlib配置
    • 二、 matplotlib Artist
    • 三、基本概念
    • 四、布局
    • 五、 Path
    • 六、 path effect
    • 七、坐标变换
    • 八、 3D 绘图
    • 九、技巧

pandas

  • pandas 使用指南
    • 一、基本数据结构
    • 二、 内部数据结构
    • 三、 下标存取
    • 四、 运算
    • 五、变换
    • 六、数据清洗
    • 七、 字符串操作
    • 八、 聚合与分组
    • 九、时间序列
    • 十、 DataFrame 绘图
    • 十一、 移动窗口函数
    • 十二、 数据加载和保存
成为VIP会员查看完整内容
0
162
小贴士
相关资讯
Python机器学习课程(代码与教程)
专知
20+阅读 · 2019年5月13日
独家 | 带你认识机器学习的的本质(附资料)
数据派THU
21+阅读 · 2019年3月13日
【资源】机器学习算法工程师手册(PDF下载)
机器学习算法与Python学习
32+阅读 · 2018年10月14日
【干货】监督学习与无监督学习简介
专知
5+阅读 · 2018年4月4日
Machine Learning:十大机器学习算法
开源中国
10+阅读 · 2018年3月1日
如何用 3 个月零基础入门机器学习?
AI研习社
5+阅读 · 2017年9月27日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
18+阅读 · 2017年7月9日
相关VIP内容
【干货书】《机器学习导论(第二版)》,348页pdf
专知会员服务
153+阅读 · 2020年6月16日
专知会员服务
218+阅读 · 2020年6月8日
专知会员服务
123+阅读 · 2020年5月2日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
229+阅读 · 2020年3月17日
MIT新书《强化学习与最优控制》
专知会员服务
142+阅读 · 2019年10月9日
相关论文
Xiaoran Xu,Wei Feng,Yunsheng Jiang,Xiaohui Xie,Zhiqing Sun,Zhi-Hong Deng
5+阅读 · 2019年9月27日
Liang Yao,Chengsheng Mao,Yuan Luo
8+阅读 · 2019年9月11日
Kwonjoon Lee,Subhransu Maji,Avinash Ravichandran,Stefano Soatto
4+阅读 · 2019年4月23日
Silvio Olivastri,Gurkirt Singh,Fabio Cuzzolin
5+阅读 · 2019年4月4日
Learning Embedding Adaptation for Few-Shot Learning
Han-Jia Ye,Hexiang Hu,De-Chuan Zhan,Fei Sha
9+阅读 · 2018年12月10日
Implicit Maximum Likelihood Estimation
Ke Li,Jitendra Malik
6+阅读 · 2018年9月24日
Ivana Balazevic,Carl Allen,Timothy M. Hospedales
7+阅读 · 2018年8月21日
Huiting Hong,Xin Li,Mingzhong Wang
4+阅读 · 2018年5月21日
Ray Jiang,Sven Gowal,Timothy A. Mann,Danilo J. Rezende
4+阅读 · 2018年4月9日
Othman Sbai,Mohamed Elhoseiny,Antoine Bordes,Yann LeCun,Camille Couprie
3+阅读 · 2018年4月3日
Top