论文浅尝 | 神经网络是如何外推的:从前馈神经网络到图神经网络

2021 年 9 月 17 日 开放知识图谱

笔记整理 | 王泽元,浙江大学在读硕士,研究方向为图神经网络,对比学习。



什么是外推?指从已知数据的孤点集合中构建新的数据的方法。与插值(interpolation)类似,但其所得的结果意义更小,而且更加受不确定性影响。

第一张图展示了原始数据的分布;现在我们对原始数据进行线性拟合得到图二,其中蓝色部分就是插值所得到的结果,红色部分就被称为外推所得到的结果;从图三可以看出外推的点相比插值所得到的点,其误差会更大

作者发现前馈神经网络在学习简单多项式的时候外推的表现不好,而图神经网络在比训练集大很多的网络上完成有挑战的任务如预测物理系统的演化时间、学习图算法、解决数学问题中表现的很好。作者对这种差别进行深入研究,研究通过基于梯度下降训练的神经网络是如何外推的,它们在训练集之外学到了什么。经过分析,明确了在什么情况下多层感知机和图神经网络可以外推出良好的结果,并且提供了一个假设:外推的成功依赖于对模型架构和输入的非线性编码

作者首先在多层感知机上进行外推实验下面四张图是文章在让两层的多层感知机上训练得到的结果。其中蓝色是训练数据、灰色是需要拟合的数据、黑色是多层感知机训练的数据。可以看出来在训练集之外,多层感知机预测的结果将会快速的收敛到线性方程

但是仅是需要拟合的数据是线性的并不能让多层感知机拟合的效果变好,还需要添加一个条件:训练集的数据分布需要涵盖所有方向。左图展示的如果涵盖的方向有差别会产生什么效果,右图定量的分析了不同训练集分布会产生的误差。fix1指将一维设为常数、negd指的是限制n维为负数、all指涵盖所有数据。可以看出数据涵盖的越全面,得到的误差就会越小

文章之后分析了GNN,文章先让图神经网络学习动态规划算法,可以看到学习的动态规划算法中间有一个非线性操作min,经过实验发现,使用min作为aggregator操作的效果比其他操作效果更好。至此文章提出了线性算法对齐的假设,及我们使用min操作对齐动态规划的dp操作,图神经网络中的多层感知机就可以对齐动态规划中的线性操作。因此图神经网络可以获得良好的外推效果。

由此推论我们可以得到,在一些图神经网络任务中目标方程分解为线性方程和非线性方程,我们可以先对输入进行非线性操作,多层感知机去拟合线性部分。这样做就可以得到好的外推效果

文章还发现不同的图的拓扑结构会影响不同任务的外推效果。在寻找最大节点任务中,对于没有节点度数限制的图表现的效果会更好。环、阶梯图、正则图、路径这种有度数限制的图会导致外推失败。在寻找最短路径任务中,过密或过于稀疏的图都会对外推造成影响。但是文章未对这些现象做出过多解释,需要对图的深入研究才能回答这些问题。

欢迎有兴趣的同学阅读原文。 

 


 

OpenKG


OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

点击阅读原文,进入 OpenKG 网站。

登录查看更多
1

相关内容

前馈神经网络(Feedforward Neural Network)是设计的第一种也是最简单的人工神经网络。在此网络中,信息仅在一个方向上移动,即从输入节点向前经过隐藏节点(如果有)并到达输出节点。 网络中没有周期或循环。
【AAAI2022】知识图谱表示模型是如何进行外推的?
专知会员服务
22+阅读 · 2022年2月2日
专知会员服务
19+阅读 · 2020年12月9日
专知会员服务
28+阅读 · 2020年10月24日
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
神经网络,凉了?
PaperWeekly
0+阅读 · 2022年3月16日
论文浅尝 | PairRE: 通过成对的关系向量实现知识图谱嵌入
论文浅尝 | 动态知识图谱对齐
开放知识图谱
5+阅读 · 2021年12月13日
WSDM‘21 | 如何增加GNN的鲁棒性?
图与推荐
1+阅读 · 2021年12月10日
论文浅尝 | 基于知识库的神经网络问题生成方法
开放知识图谱
19+阅读 · 2019年6月21日
论文浅尝 | 面向知识图谱补全的共享嵌入神经网络模型
开放知识图谱
31+阅读 · 2019年4月7日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
23+阅读 · 2022年2月4日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关VIP内容
【AAAI2022】知识图谱表示模型是如何进行外推的?
专知会员服务
22+阅读 · 2022年2月2日
专知会员服务
19+阅读 · 2020年12月9日
专知会员服务
28+阅读 · 2020年10月24日
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
相关资讯
神经网络,凉了?
PaperWeekly
0+阅读 · 2022年3月16日
论文浅尝 | PairRE: 通过成对的关系向量实现知识图谱嵌入
论文浅尝 | 动态知识图谱对齐
开放知识图谱
5+阅读 · 2021年12月13日
WSDM‘21 | 如何增加GNN的鲁棒性?
图与推荐
1+阅读 · 2021年12月10日
论文浅尝 | 基于知识库的神经网络问题生成方法
开放知识图谱
19+阅读 · 2019年6月21日
论文浅尝 | 面向知识图谱补全的共享嵌入神经网络模型
开放知识图谱
31+阅读 · 2019年4月7日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员