AAAI2019《图表示学习》Tutorial, 180 页 PPT 带你从入门到精通(下载)

2019 年 2 月 2 日 新智元





  新智元推荐  

来源:专知(Quan_zhuanzhi)

【新智元导读】图神经网络GNN是最近特别火的一个深度学习方向。本文带来AAAI-19 Tutorial的《图表示学习》180页PPT,全面概述图表示学习的当前进展,非常干货!


图表示学习,是 2018 年火爆全球的一个深度学习方向,从以 Line, meta-path 等为首的节点表示学习,到以 GCN,GraphSAGE,为首的图卷积方法,在到近期的以 GraphVAE 为首的生成图模型,图表示学习方向的文章如过江之鲫。


在最近的 AAAI 2019 Tutorial 环节,来自 Facebook AI Research 的 William Hamilton 和加拿大蒙特利尔算法研究所的 Jian Tang 跟大家交流了图表示学习的当前进展。


报告简介


图上的机器学习,是一项很重要且普遍存在的任务,无论是社交网络上的朋友推荐还是化学药物上的分子式的链接,都能从中获益。


目前这个领域的主要挑战是找到一种方法来表示或者编码图的结构,以便机器学习模型能够轻松利用它们。


传统的机器学习方法依赖于用户定义的启发式模型来提取关于图的结构信息的特征编码 (例如,度统计或核函数)。然而,近年来,使用基于深度学习和非线性降维的技术,自动学习将图形结构编码为低维嵌入的方法激增。


在本教程中,我们将对图表示学习领域的主要进展进行技术介绍,包括基于矩阵分解的方法、基于随机游走的算法、图神经网络和图生成模型。在此过程中,我们开发了一个统一的框架来描述这些最新的方法,并强调了涉及大规模社会和生物网络的实际应用。


报告人简介


William Hamilton

Facebook AI Research


William Hamilton (wlh@fb.com) 目前是 Facebook AI Research 的访问学者,McGill 大学计算机系助理教授. 2018 年博士毕业于斯坦福大学。 他的研究兴趣是图表示学习与大规模社会网络计算。


Jian Tang

Montreal Institute for Learning Algorithms


Jian Tang 目前是加拿大蒙特利尔算法研究所(Montreal Institute for Learning Algorithms )和 HEC Montreal 的助理教授. 2014 年博士毕业于北京大学,2014-2016 在任微软研究院研究员,2016-2017 年在密歇根大学和卡内基梅隆大学做博士后。


报告内容简介


【节点表示学习】

【图神经网络】

【图生成模型】

【未来方向】


180页PPT下载:

https://pan.baidu.com/s/1hRjm1nbMcj4_ynZ0niE2JA



【加入社群】


新智元AI技术+产业社群招募中,欢迎对AI技术+产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。

登录查看更多
59

相关内容

图表示学习是2018年火爆全球的一个深度学习方向,从以 Line, meta-path 等为首的节点表示学习,到以 GCN,GraphSAGE,为首的图卷积方法,在到近期的以 GraphVAE 为首的生成图模型,图表示学习方向的文章如过江之鲫。
模型优化基础,Sayak Paul,67页ppt
专知会员服务
74+阅读 · 2020年6月8日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
127+阅读 · 2020年4月25日
【EMNLP2019教程】端到端学习对话人工智能,附237页PPT下载
专知会员服务
67+阅读 · 2019年11月25日
【CVPR2019教程】视频理解中的图表示学习
专知
43+阅读 · 2019年6月20日
220页深度神经网络基础、理论与挑战PPT【下载】
机器学习算法与Python学习
7+阅读 · 2018年9月12日
【WWW2018】网络表示学习Tutorial(附下载)
专知
11+阅读 · 2018年4月25日
Arxiv
10+阅读 · 2020年4月5日
Arxiv
35+阅读 · 2020年1月2日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Arxiv
5+阅读 · 2019年4月25日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
4+阅读 · 2017年10月30日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员