【UCLA】动态图表示学习,40页ppt,Dynamic Graph Representation Learning

2021 年 3 月 7 日 专知


在许多现实世界的应用中,包括社交网络、推荐系统、本体论、生物学和计算金融,图表自然地出现了。传统上,图的机器学习模型大多是为静态图设计的。然而,许多应用程序都涉及到图形的演变。这为学习和推理带来了重要的挑战,因为节点、属性和边会随着时间而变化。在这一报告中,我们回顾了最近的进展表示学习动态图,包括动态知识图谱。我们从编码器和解码器的角度来描述现有的模型,根据它们所使用的技术对这些编码器和解码器进行分类,并对每一类的方法进行分析。我们也回顾了几个突出的应用和广泛使用的数据集,并强调了未来的研究方向。


问题: 学习动态节点表示。
挑战:
时间变化图结构:可以出现链接和节点
然后消失,社区一直在变化。
我要求节点表示同时捕捉结构
邻近性(如静态情况)和它们的时间性
进化。
事件的时间间隔不均匀。
改变的原因: 可以来自不同的方面,例如:
在合作网络,研究社区和职业
阶段的观点。
需要对多方面的变化进行建模。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“DGRL” 就可以获取【UCLA】动态图表示学习,40页ppt,Dynamic Graph Representation Learning》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
26

相关内容

表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
【图与几何深度学习】Graph and geometric deep learning,49页ppt
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
专知会员服务
53+阅读 · 2019年12月22日
【Twitter】时序图神经网络
专知
9+阅读 · 2020年10月16日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
最新《动态网络嵌入》综述论文,25页pdf
专知
34+阅读 · 2020年6月17日
【CVPR2019教程】视频理解中的图表示学习
专知
43+阅读 · 2019年6月20日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
35+阅读 · 2020年1月2日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
8+阅读 · 2014年6月27日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
专知会员服务
53+阅读 · 2019年12月22日
Top
微信扫码咨询专知VIP会员