通俗易懂!《图机器学习导论》附69页PPT

2019 年 12 月 29 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要10分钟

跟随小博主,每天进步一丢丢


转载自:专知


【导读】图是强大的数据结构,可以被用于建模许多真实世界的场景。图可以建模样本之间的关系信息,然而,许多之前的机器学习模型忽略了关系信息或没有很好地方法来建模关系信息。《图机器学习导论》介绍了目前较新的基于图的机器学习方法。


图是强大的数据结构,可以被用于建模许多真实世界的场景。目前,图在生命科学、金融、社交网络、用户行为时序建模、区块链等领域的机器学习应用中都得到了广泛的引用,并取得了非常好的效果。

图数据往往会包含大量有价值的关系数据。然而,许多之前的机器学习模型往往只关注每个样本的特征,而没有考虑到样本之间的关系数据或没有很好的方法来利用和建模这些关系数据。

图机器学习为我们提供了利用这些关系数据的方法,它使得我们可以同时考虑图中每个节点的自身特征、邻节点以及邻节点的特征,以获取更好的性能。

图机器学习的实现一般有两种方法:

  • 将图转换为表格,用传统成熟的机器学习方法实现

  • 将图建模为网络,用目前较新的基于网络的机器学习方法实现

DeepWalk、Node2Vec等基于Random Walk的网络节点表示学习方法,属于上述的第一种方法,它们利用Random Walk将网络结构转换为序列,用成熟的skip-gram方法进行求解。

目前较为流行的图神经网络属于第二种方法,直接在网络结构上进行机器学习:


《Introduction to graphs and machine learning》(《图机器学习导论》)为我们介绍了图机器学习的动机与发展,包括网络表示学习、图神经网络等图机器学习方法及其在问答、知识图谱等领域的应用。


完整PPT下载
请关注专知公众号(点击上方蓝色专知关注
  • 后台回复“ITGML” 就可以获取完整教程PPT的专知资源下载链接~ 


教程部分截图如下所示:


参考链接:

  • https://conferences.oreilly.com/strata/strata-ny-2019/public/schedule/detail/76557




方便交流学习,备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦


推荐阅读:
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency  Parsing
【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货 | 那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作




让更多的人知道你“在看”
登录查看更多
2

相关内容

图机器学习(Machine Learning on Graphs)是一项重要且普遍存在的任务,其应用范围从药物设计到社交网络中的友情推荐。这个领域的主要挑战是找到一种表示或编码图结构的方法,以便机器学习模型能够轻松地利用它。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【新书】图神经网络导论,清华大学刘知远老师著作
专知会员服务
361+阅读 · 2020年6月12日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
WSDM 2020教程《深度贝叶斯数据挖掘》,附257页PPT下载
专知会员服务
156+阅读 · 2020年2月7日
【2020新书】图机器学习,Graph-Powered Machine Learning
专知会员服务
339+阅读 · 2020年1月27日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
机器学习数学基础【附PPT下载】
专知
45+阅读 · 2018年9月17日
Arxiv
20+阅读 · 2019年11月23日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
11+阅读 · 2018年4月25日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员