In recent years, graph neural networks (GNNs) have gained increasing popularity and have shown very promising results for data that are represented by graphs. The majority of GNN architectures are designed based on developing new convolutional and/or pooling layers that better extract the hidden and deeper representations of the graphs to be used for different prediction tasks. The inputs to these layers are mainly the three default descriptors of a graph, node features $(X)$, adjacency matrix $(A)$, and edge features $(W)$ (if available). To provide a more enriched input to the network, we propose a random walk data processing of the graphs based on three selected lengths. Namely, (regular) walks of length 1 and 2, and a fractional walk of length $\gamma \in (0,1)$, in order to capture the different local and global dynamics on the graphs. We also calculate the stationary distribution of each random walk, which is then used as a scaling factor for the initial node features ($X$). This way, for each graph, the network receives multiple adjacency matrices along with their individual weighting for the node features. We test our method on various molecular datasets by passing the processed node features to the network in order to perform several classification and regression tasks. Interestingly, our method, not using edge features which are heavily exploited in molecular graph learning, let a shallow network outperform well known deep GNNs.


翻译:近年来,图形神经网络(GNNS)越来越受欢迎,并展示了以图表表示的数据非常有希望的结果。GNN大多数结构的设计基础是开发新的进化和(或)集合层,以更好地提取用于不同预测任务的图表的隐藏和更深的表达面。对这些层的投入主要是一个图形的三个默认描述符,即节点特征$(X)美元、相近矩阵$(A)美元和边缘特征$(W)美元(如果有的话)。为了向网络提供更丰富的投入,我们建议对三个选定长度的图表进行随机步行数据处理。也就是说,(定期)长1和2行走,以及一个长度为$\gamma\ in (0,1,1美元)的分行行,以便捕捉图表上不同的本地和全球动态。我们还计算每次随机行走的固定分布,然后作为初始节点特征的缩放系数 $(X$) 。对于每个图表来说,我们建议以三个选定长度长度长度长度长度长度长度的图形进行随机流动数据处理。 网络将采用多种测量方法,我们用一些深度的深度的平面结构来测试数据顺序,我们用不同的平整方法来进行测试。

0
下载
关闭预览

相关内容

专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
56+阅读 · 2021年1月26日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Maxout Network原理及其TensorFlow实现
深度学习每日摘要
5+阅读 · 2017年6月4日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
3+阅读 · 2018年4月10日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Maxout Network原理及其TensorFlow实现
深度学习每日摘要
5+阅读 · 2017年6月4日
相关论文
Arxiv
3+阅读 · 2020年4月29日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
3+阅读 · 2018年4月10日
Arxiv
26+阅读 · 2018年2月27日
Top
微信扫码咨询专知VIP会员