裴健、吴凌飞等权威学者联合撰写,一本书读懂图神经网络的基础、前沿、应用(免费下载)

2022 年 1 月 12 日 机器之心
机器之心报道
机器之心编辑部

这本书称得上是目前为止图神经网络领域最为全面的卓越之作。


近年来,图神经网络 (GNN) 领域取得了快速且惊人的进展。图神经网络,也称为图深度学习、图表示学习或几何深度学习,已成为机器学习尤其是深度学习中发展最快的研究课题之一。这一批涌现的图论和深度学习交叉的研究也影响了其他科学领域,包括推荐系统、计算机视觉、自然语言处理、归纳逻辑编程、程序合成、软件挖掘、自动化规划、网络安全和智能交通。

虽然图神经网络已经获得了极大的关注,但在将其应用到其他领域时仍然面临着许多挑战,从对方法的理论理解到实际系统中的可扩展性和可解释性,从方法的健全性到在实际系统应用中的经验表现。尽管该领域实现了快速发展,从全局视角了解 GNN 的发展却始终极具挑战性。
 
为了弥合上述差距,吴凌飞、崔鹏、裴健、赵亮几位学者牵头编撰了一本图神经网络领域的综合性书籍。这本书历时近一年时间写作而成,全书由四大部分(引言,基础,前沿,应用)共 27 个章节组成,面向这一领域的高级本科生和研究生、博士后研究人员、讲师和行业从业者。

这是目前为止在图神经网络方面最为全面的一本书。本书涵盖了图神经网络的众多主题,从基础到前沿,从方法论到应用。这本书介绍了 GNN 的基本概念和算法、GNN 的研究前沿以及 GNN 的广泛应用和新兴应用。


书籍的英文版已经在多个平台开启预订,中文版书籍将在 2022 年中期正式出版。目前已有免费公开版可供阅读。

书籍开源网站地址: https://graph-neural-networks.github.io/index.htm l

目录

第一部分:引言

  • 第 1 章 表示学习

  • 第 2 章 图表示学习

  • 第 3 章 图神经网络


第二部分:基础

  • 第 4 章 用于节点分类的图神经网络

  • 第 5 章 图神经网络的表达能力

  • 第 6 章 图神经网络:可扩展性

  • 第 7 章 图神经网络中的可解释性

  • 第 8 章 图神经网络:对抗鲁棒性


第三部分:前沿

  • 第 9 章 图神经网络:图分类

  • 第 10 章 图神经网络:链接预测

  • 第 11 章 图神经网络:图生成

  • 第 12 章 图神经网络:图变换

  • 第 13 章 图神经网络:图匹配

  • 第 14 章 图神经网络:图结构学习

  • 第 15 章 动态图神经网络

  • 第 16 章 异构图神经网络

  • 第 17 章 图神经网络:AutoML

  • 第 18 章 图神经网络:自监督学习


第四部分:应用

  • 第 19 章 现代推荐系统中的图神经网络

  • 第 20 章 计算机视觉中的图神经网络

  • 第 21 章 自然语言处理中的图神经网络

  • 第 22 章 程序分析中的图神经网络

  • 第 23 章 软件挖掘中的图神经网络

  • 第 24 章 药物开发中基于 GNN 的生物医学知识图谱挖掘

  • 第 25 章 预测蛋白质功能和相互作用的图神经网络

  • 第 26 章 异常检测中的图神经网络

  • 第 27 章 城市智能中的图神经网络


作者介绍


吴凌飞博士现任京东硅谷研发中心首席科学家。吴博士曾经是 IBM T. J. Watson Research Center 研究科学家和团队带头人。吴博士在 2016 年从威廉玛丽大学取得计算机博士学位。他的研究内容包括机器学习、表征学习和自然语言处理。

吴博士带领的 Graph4NLP (Deep Learning on Graphs for Natural Language Processing) 团队(12+ 研究科学家)致力于机器学习与文本数据挖掘领域的基础研究,并运用机器学习与文本数据挖掘方法解决实际问题。其学术成果先后发表在 NeurIPS, ICML, ICLR, ACL, EMNLP, KDD, AAAI, IJCAI 等国际顶级会议及期刊上,发表论文超过 80 多篇。代表作包括 IDGL, MGMN, Graph2Seq, GraphFlow。多项学术论文获得著名国际大会的最佳论文和最佳学术论文奖,包括 IEEE ICC 2019。

吴博士同时现任 IEEE 影响因子最高期刊之一 IEEE Transactions on Neural Networks and Learning Systems(TNNLS) 和 ACM SIGKDD 旗舰期刊 ACM Transactions on Knowledge Discovery from Data (TKDD) 的副主编。多次组织和担任国际顶级会议大会或者领域主席,如 AAAI, IJCAI, KDD, NeurIPS, ICLR, ICML, ACL, EMNLP。


崔鹏,清华大学计算机系长聘副教授。于 2010 年获得清华大学博士学位,研究兴趣包括因果正则机器学习(causally-regularized machine learning)、网络表示学习和社交动态建模。他在数据挖掘和多媒体领域知名会议和期刊上发表文章 100 多篇,近期研究获得 IEEE Multimedia Best Department Paper Award、ICDM 2015 最佳学生论文奖等多个奖项。2015 年,他获得 ACM 中国新星奖,2018 年获得 CCF-IEEE CS 青年科学家奖。目前,他是 ACM 和 CCF 杰出会员、IEEE 高级会员。


裴健在数据科学、大数据、数据挖掘和数据库系统等领域,是世界领先的研究学者,国际计算机协会(ACM)院士和国际电气电子工程师协会(IEEE)院士,擅长为数据密集型应用设计开发创新性的数据业务产品和高效的数据分析技术。因其在数据挖掘基础、方法和应用方面的杰出贡献,裴健曾获得数据科学领域技术成就最高奖 ACM SIGKDD Innovation Award(ACM SIGKDD 创新奖)和 IEEE ICDM Research Contributions Award(IEEE ICDM 研究贡献奖)。2018 年,裴健入职京东,任集团副总裁。此前,裴健教授还曾担任华为首席科学家。2019 年 9 月,裴健当选加拿大皇家学会院士。


赵亮现为埃默里大学担任计算机系助理教授,研究方向为数据挖掘、机器学习和优化。此前曾在乔治梅森大学信息科技学院和计算机学院担任助理教授。2016 年秋,赵亮获得弗吉尼亚理工大学的博士学位。此外,赵亮曾获 2020 年美国自然科学基金委员会杰出青年奖(NSF CAREER AWARD)、2019 年 Jeffress Trust Award、2017 年弗吉尼亚理工大学计算机学院杰出博士奖,并入选 2016 年微软评选出的数据挖掘领域 20 位学术新星。他还获得过 ICDM 2019 会议的最佳论文奖项。

吴凌飞博士将于北京时间2月21日周一19:30 - 20:30,在机器之心机动组视频直播中分享「GNN的基础、前沿和应用」,敬请期待!

使用NVIDIA Riva快速构建企业级TTS语音合成助手


NVIDIA Riva 是一个使用 GPU 加速,能用于快速部署高性能会话式 AI 服务的 SDK,可用于快速开发语音 AI 的应用程序。Riva 的设计旨在帮助您轻松、快速地访问会话 AI 功能,开箱即用,通过一些简单的命令和 API 操作就可以快速构建高级别的 TTS 语音合成服务。

2022年1月12日19:30-21:00,本次线上分享主要介绍:
  • 语音合成简介
  • NVIDIA Riva 特性介绍
  • 启动 NVIDIA Riva 客户端快速实现文字转语音功能
  • 使用 Python 快速搭建基于 Riva 的 TTS 语音合成服务应用


点击 阅读原文 ,报名直播吧。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
6

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【斯坦福Jiaxuan You】图学习在金融网络中的应用,24页ppt
专知会员服务
43+阅读 · 2021年9月19日
最新《神经架构搜索NAS》教程,33页pdf
专知会员服务
26+阅读 · 2020年12月2日
【KDD2020】图神经网络:基础与应用,322页ppt
专知会员服务
134+阅读 · 2020年8月30日
【新书】图神经网络导论,清华大学刘知远老师著作
专知会员服务
361+阅读 · 2020年6月12日
一本书的精华,就在这场图神经网络线上分享
机器之心
1+阅读 · 2022年2月17日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
免费教材-《数据科学基础-2018》最新版下载
深度学习与NLP
36+阅读 · 2018年12月28日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年4月30日
国家自然科学基金
1+阅读 · 2008年12月31日
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
22+阅读 · 2021年12月19日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
38+阅读 · 2020年12月2日
Principal Neighbourhood Aggregation for Graph Nets
Arxiv
17+阅读 · 2020年6月7日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年4月30日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Top
微信扫码咨询专知VIP会员