本文研究了无监督图表示学习,这在许多任务中至关重要,如药物和材料中分子特性预测。现有方法主要侧重于保留不同图实例之间的局部相似性,但是没有考虑整个数据集的全局语义结构。在本文中,作者提出了一个统一的框架,GraphLoG,用于自监督的全图表示学习。

具体来说,除了局部相似性之外,GraphLoG 还引入了层次原型来捕获全局语义。进一步提出了一种有效的在线期望最大化 (EM) 算法来学习模型。本文评估的方法是通过在未标记图预训练,然后对下游任务进行微调来进行。对化学和生物基准数据集的大量实验证明了所提出方法的有效性。

成为VIP会员查看完整内容
31

相关内容

专知会员服务
21+阅读 · 2021年8月26日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
38+阅读 · 2021年6月13日
专知会员服务
29+阅读 · 2021年5月21日
专知会员服务
81+阅读 · 2021年5月10日
【WWW2021】充分利用层级结构进行自监督分类法扩展
专知会员服务
15+阅读 · 2021年2月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
40+阅读 · 2021年1月9日
CVPR 2020 | 用于点云中3D对象检测的图神经网络
学术头条
5+阅读 · 2020年7月29日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
基于 GNN 的图表示学习
DataFunTalk
9+阅读 · 2020年1月17日
超越标准 GNN !DeepMind、谷歌提出图匹配网络| ICML最新论文
黑龙江大学自然语言处理实验室
7+阅读 · 2019年5月7日
Arxiv
0+阅读 · 2021年10月5日
Arxiv
0+阅读 · 2021年10月5日
Arxiv
0+阅读 · 2021年10月4日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
4+阅读 · 2020年10月18日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
VIP会员
相关VIP内容
专知会员服务
21+阅读 · 2021年8月26日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
38+阅读 · 2021年6月13日
专知会员服务
29+阅读 · 2021年5月21日
专知会员服务
81+阅读 · 2021年5月10日
【WWW2021】充分利用层级结构进行自监督分类法扩展
专知会员服务
15+阅读 · 2021年2月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
40+阅读 · 2021年1月9日
相关资讯
CVPR 2020 | 用于点云中3D对象检测的图神经网络
学术头条
5+阅读 · 2020年7月29日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
基于 GNN 的图表示学习
DataFunTalk
9+阅读 · 2020年1月17日
超越标准 GNN !DeepMind、谷歌提出图匹配网络| ICML最新论文
黑龙江大学自然语言处理实验室
7+阅读 · 2019年5月7日
相关论文
Arxiv
0+阅读 · 2021年10月5日
Arxiv
0+阅读 · 2021年10月5日
Arxiv
0+阅读 · 2021年10月4日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
4+阅读 · 2020年10月18日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
微信扫码咨询专知VIP会员