Predicting molecular properties with data-driven methods has drawn much attention in recent years. Particularly, Graph Neural Networks (GNNs) have demonstrated remarkable success in various molecular generation and prediction tasks. In cases where labeled data is scarce, GNNs can be pre-trained on unlabeled molecular data to first learn the general semantic and structural information before being fine-tuned for specific tasks. However, most existing self-supervised pre-training frameworks for GNNs only focus on node-level or graph-level tasks. These approaches cannot capture the rich information in subgraphs or graph motifs. For example, functional groups (frequently-occurred subgraphs in molecular graphs) often carry indicative information about the molecular properties. To bridge this gap, we propose Motif-based Graph Self-supervised Learning (MGSSL) by introducing a novel self-supervised motif generation framework for GNNs. First, for motif extraction from molecular graphs, we design a molecule fragmentation method that leverages a retrosynthesis-based algorithm BRICS and additional rules for controlling the size of motif vocabulary. Second, we design a general motif-based generative pre-training framework in which GNNs are asked to make topological and label predictions. This generative framework can be implemented in two different ways, i.e., breadth-first or depth-first. Finally, to take the multi-scale information in molecular graphs into consideration, we introduce a multi-level self-supervised pre-training. Extensive experiments on various downstream benchmark tasks show that our methods outperform all state-of-the-art baselines.


翻译:使用数据驱动方法的预测分子性质近年来引起了人们的极大注意。 特别是, 图形神经网络( GNN) 在各种分子生成和预测任务中表现出了显著的成功。 在标签数据稀缺的情况下, GNNN可以先在未贴标签的分子数据上接受培训, 以便首先学习一般语义和结构信息, 然后对具体任务进行微调。 然而, 大多数现有的GNNN的自监督前培训框架只侧重于节点级别或图形级别的任务。 这些方法无法捕捉子图或图形模型模型中的丰富信息。 例如, 功能组( 分子图中反复出现的多层子图) 往往会包含关于分子属性的指示性信息。 为了缩小这一差距, 我们建议以 Motif 为基础的图形自监督学习( MGSSL ), 引入一个全新的自上层模型生成框架。 首先, 从分子图中提取的 motif, 我们设计一个分子分裂方法, 利用回溯的 iynex 水平 水平, 多层 数据结构框架 引入了第二个 GNBR 和额外规则, 用于控制我们基于 IMal 的 IMal 的G IML IM 的基 的模型 的预,,, 的模型,, 的模型的模型 的模型的模型的模型,,,, 开始 开始, 。 开始 开始 开始 开始 开始 。 开始 。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【PKDD 2021】PaGNN:基于交互结构学习的链路预测
专知会员服务
17+阅读 · 2021年11月26日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
专知会员服务
53+阅读 · 2019年12月22日
Link prediction | 三篇SEAL相关工作小结
AINLP
46+阅读 · 2020年11月17日
Nature 一周论文导读 | 2019 年 8 月 22 日
科研圈
4+阅读 · 2019年9月1日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
3+阅读 · 2021年5月18日
Arxiv
38+阅读 · 2020年12月2日
VIP会员
相关资讯
Link prediction | 三篇SEAL相关工作小结
AINLP
46+阅读 · 2020年11月17日
Nature 一周论文导读 | 2019 年 8 月 22 日
科研圈
4+阅读 · 2019年9月1日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员