论文题目: Dynamic graph representation learning via self-attention networks

论文摘要: 学习图中节点的潜在表示是一项重要且普遍存在的任务,在链接预测、节点分类和图可视化等领域有着广泛的应用。以往的图表示学习方法主要集中在静态图上,而现实世界中的很多图都是动态的、随时间变化的。在这篇论文中,我们提出了Dynamic Self-Attention Network (DySAT),这是一种新型的神经架构,它操作在动态图上,并学习节点表示,以捕捉结构特性和时间演化模式。具体来说,DySAT通过在两个维度(结构邻域和时间动态)上联合使用self-attention层来计算节点表示。我们对两类图进行了链接预测实验:通信网络和二分评级网络。我们的实验结果表明,DySAT在几种不同的最先进的图嵌入baseline上有显著的性能提升。

作者简介: 武延宏,Visa Research的研究员。在加入Visa之前,他是IBM T.J.Watson研究中心的博士后研究员,负责金融领域的异常检测和分析。他还曾在Aviz | INRIA和Microsoft Research Asia担任访问学者,专注于大型图挖掘和可视化。他于2013年6月从香港理工大学获得博士学位,并于2013年6月在复旦大学软件学院获得学士学位。他的研究兴趣包括图形建模、深入学习和可视化分析。等

成为VIP会员查看完整内容
97

相关内容

Visa Research的研究员。在加入Visa之前,他是IBM T.J.Watson研究中心的博士后研究员,负责金融领域的异常检测和分析。他还曾在Aviz | INRIA和Microsoft Research Asia担任访问学者,专注于大型图形挖掘和可视化。他于2013年6月从香港理工大学获得博士学位,并于2013年6月在复旦大学软件学院获得学士学位。他的研究兴趣包括图形建模、深入学习和可视化分析。
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
【CVPR2019教程】视频理解中的图表示学习
专知
43+阅读 · 2019年6月20日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
35+阅读 · 2020年1月2日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
27+阅读 · 2018年4月12日
Arxiv
12+阅读 · 2018年1月28日
Arxiv
8+阅读 · 2014年6月27日
VIP会员
相关VIP内容
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
相关论文
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
35+阅读 · 2020年1月2日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
27+阅读 · 2018年4月12日
Arxiv
12+阅读 · 2018年1月28日
Arxiv
8+阅读 · 2014年6月27日
微信扫码咨询专知VIP会员