图表示学习近年来得到了广泛的研究。尽管它在为各种网络生成连续嵌入方面具有潜力,但针对大量节点推断高质量表示的有效性和效率仍然具有挑战性。采样是实现性能目标的关键。现有技术通常集中于正节点对的抽样,而对负节点对的抽样策略却没有进行充分的探索。为了弥补这一差距,我们从目标和风险两个角度系统地分析了负抽样的作用,从理论上论证了负抽样与正抽样在确定优化目标和由此产生的方差方面同样重要。据我们所知,我们是第一个推导出负抽样分布应该与正抽样分布呈正相关但亚线性相关的理论并进行量化的工作。在该理论的指导下,我们提出了MCNS,用自对比近似逼近正分布,用Metropolis-Hastings加速负抽样。我们在5个数据集上评估了我们的方法,这些数据集涵盖了广泛的下游图数据学习任务,包括链接预测、节点分类和个性化推荐,总共有19个实验设置。这些较为全面的实验结果证明了其鲁棒性和优越性。

成为VIP会员查看完整内容
62

相关内容

【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
45+阅读 · 2020年6月18日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
网络表示学习综述:一文理解Network Embedding
PaperWeekly
34+阅读 · 2018年8月14日
【干货】深入理解变分自编码器
专知
21+阅读 · 2018年3月22日
综述 | 知识图谱向量化表示
开放知识图谱
33+阅读 · 2017年10月26日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
VIP会员
相关资讯
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
网络表示学习综述:一文理解Network Embedding
PaperWeekly
34+阅读 · 2018年8月14日
【干货】深入理解变分自编码器
专知
21+阅读 · 2018年3月22日
综述 | 知识图谱向量化表示
开放知识图谱
33+阅读 · 2017年10月26日
微信扫码咨询专知VIP会员