在许多涉及图神经网络的学习任务中,通过读出函数将节点特征有效地聚合为图级表示是必不可少的一步。通常,读出是简单且非自适应的函数,其设计使得得到的假设空间是排列不变的。先前对深度集的研究表明,这样的读出可能需要复杂的节点嵌入,通过标准的邻域聚合方案很难学习。基于此,我们研究了神经网络给出的自适应读出的潜力,这些神经网络不一定会产生排列不变的假设空间。我们认为,在一些问题中,如分子通常以规范形式呈现的结合亲和性预测,可能会放松对假设空间排列不变性的约束,并通过使用自适应读取函数学习更有效的亲和性模型。我们的经验结果证明了神经读出在跨越不同领域和图特征的40多个数据集上的有效性。此外,我们观察到相对于邻域聚合迭代次数和不同的卷积运算符,相对于标准读数(即和、最大值和平均值)有一致的改进。

成为VIP会员查看完整内容
18

相关内容

【AAAI2023】图序注意力网络
专知会员服务
45+阅读 · 2022年11月24日
【NeurIPS2022】几何知识蒸馏:图神经网络的拓扑压缩
专知会员服务
24+阅读 · 2022年11月9日
【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
【AAAI2023】图序注意力网络
专知
5+阅读 · 2022年11月24日
NeurIPS'22 | 具有自适应读出的图神经网络
图与推荐
1+阅读 · 2022年11月11日
AAAI 2022 | 同时适用于同质和异质性的图神经网络
从ICLR 2022看什么是好的图神经网络?
PaperWeekly
0+阅读 · 2022年2月18日
KDD'21 | 图神经网络如何建模长尾节点?
图与推荐
6+阅读 · 2021年10月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
57+阅读 · 2021年5月3日
Arxiv
19+阅读 · 2021年2月4日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
17+阅读 · 2019年3月28日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
VIP会员
相关VIP内容
【AAAI2023】图序注意力网络
专知会员服务
45+阅读 · 2022年11月24日
【NeurIPS2022】几何知识蒸馏:图神经网络的拓扑压缩
专知会员服务
24+阅读 · 2022年11月9日
【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
相关论文
Arxiv
14+阅读 · 2021年8月5日
Arxiv
57+阅读 · 2021年5月3日
Arxiv
19+阅读 · 2021年2月4日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
17+阅读 · 2019年3月28日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
微信扫码咨询专知VIP会员