CIKM'21 | 4篇图结构学习进展

2021 年 11 月 9 日 图与推荐

点击上方 蓝字关注我们

第30届国际信息与知识管理大会(The 30th ACM International Conference on Information and Knowledge Management, CIKM 2021)计划于2021年11月1日-11月5日在线召开。ACM CIKM是CCF推荐的B类国际学术会议,是信息检索和数据挖掘领域最重要的学术会议之一。这次会议共收到1251篇长文(Full paper)、290篇应用文(Applied paper)和626篇短文(Short paper)投稿,有271篇长文、69篇应用文和178篇短文被录用,录用率分别为21.7%、23.8%和28.4%。官方发布的接收论文列表:

http://www.cikm2021.org/accepted-papers


我们知道图网络的结构对与最后的表示非常的重要。本次小编介绍四篇与结构相关的论文,他们或者通过互补的视图捕捉全局和局部的信息;或者语义信息补充结构信息的不足;或者把图看作是一种超图的方式,学习边的表示用于各种下游任务;或者设置一定的约束。下面是本次要介绍的论文列表

  • CIKM'21Semi-Supervised and Self-Supervised Classification with Multi-View Graph Neural Networks

  • Topic-aware Heterogeneous Graph Neural Network for Link Prediction

  • Relation Prediction via Graph Neural Network in Heterogeneous Information Networks with Missing Type Information

  • CIKM'21Semi-Supervised and Self-Supervised Classification with Multi-View Graph Neural Networks

  • LEReg: Empower Graph Neural Networks with Local Energy Regularization

具有多视图图神经网络的半监督和自监督分类

论文题目:Semi-Supervised and Self-Supervised Classification with Multi-View Graph Neural Networks


Authors: 

Jinliang Yuan,Hualei Yu,Meng Cao,Ming Xu,Junyuan Xie,Chongjun Wang【南京大学】

https://dl.acm.org/doi/abs/10.1145/3459637.3482477


图神经网络 (GNN) 在处理图结构数据方面取得了重大成功,例如知识图、引文网络、分子结构等。 然而,由于过度平滑问题,它们中的大多数通常是浅层结构。当堆叠许多层时,节点是无法区分的。最近的几项研究试图通过扩大感受野来聚合来自高阶邻居的信息来设计具有强大表达能力的深度 GNN。但是深度模型可能会引起过拟合问题。在本文中,我们提出了一种新的见解,可以基于不需要深层结构的多视图来聚合更多有用的信息。具体来说,我们首先设计了两个互补的视图来描述节点的全局拓扑和特征相似性。然后我们设计了一种注意力策略来融合节点表示,命名为 Multi-View Graph Convolutional N etowrk(MV-GCN)。此外,我们引入了一种自监督技术,通过在不同视图上的对比学习来学习节点表示,该技术可以从大量未标记的数据中学习独特的节点嵌入,称为 Multi-View Contrastive Graph Convolutional Network(MV- CGC)。最后,我们对用于节点分类的六个公共数据集进行了广泛的实验,这证明了两个提出的模型与最先进的方法相比的优越性。


用于链路预测的主题感知异构图神经网络 


论文题目:Topic-aware Heterogeneous Graph Neural Network for Link Prediction


Authors: 

Siyong Xu,Cheng Yang,Chuan Shi,Yuan Fang,Yuxin Guo,Tianchi Yang,Luhao Zhang,Maodi Hu【北邮】

https://dl.acm.org/doi/abs/10.1145/3459637.3482485


由多种类型的节点和链接组成的异构图 (HG) 可以表征各种现实世界的复杂系统。最近,异构图神经网络(HGNNs)作为一种强大的图嵌入方法来聚合异构结构和属性信息,赢得了很多关注。

尽管 HGNN 能够捕获揭示节点不同方面的丰富语义,但它们仍然停留在简单地利用结构特征的粗粒度级别。事实上,节点丰富的非结构化文本内容也承载着多方面主题感知因素所产生的潜在但更细粒度的语义,这从根本上体现了为什么不同类型的节点会连接并形成特定的异构结构。然而,很少有人致力于对它们进行因式分解。 在本文中,我们提出了一种名为 THGNN 的 Topic-aware Heterogeneous Graph Neural Network,以分层挖掘主题感知语义,用于学习 HG 中链接预测的多面节点表示。

具体来说,我们的模型主要采用交替的聚合机制,包括元路径内分解和元路径间合并,可以根据推理主题感知因素独特地聚合丰富的异构信息并保留层次语义。此外,还设计了一个主题先验指导模块,以依靠来自 HG 中非结构化文本内容的全局知识来保持多方面主题感知嵌入的质量。它有助于同时提高性能和可解释性。

在三个真实世界的 HG 上的实验结果表明,我们提出的模型在链接预测任务中可以有效地优于最先进的方法,并展示了学习的多方面主题感知表示的潜在可解释性。

具有缺失类型信息的异构信息网络中通过图神经网络的关系预测

题目:Relation Prediction via Graph Neural Network in Heterogeneous Information Networks with Missing Type Information


Authors: Han Zhang , Yu Hao , Xin Cao , Yixiang Fang , Won-Yong Shin , Wei Wang【新南威尔士大学等】

https://dl.acm.org/doi/abs/10.1145/3459637.3482384


关系预测是网络分析中的一项基本任务,旨在预测两个节点之间的关系。因此,这不同于传统的链接预测问题,即预测一对节点之间是否存在链接,可以将其视为二元分类任务。然而,在包含多种类型节点和节点之间多种关系的异构信息网络(HIN)中,关系预测任务更具挑战性。此外,HIN 可能在某些边上缺少关系类型,在某些节点上缺少节点类型,这使问题变得更加困难。 在这项工作中,我们提出了 RPGNN,一种基于图神经网络 (GNN) 和多任务学习的新型关系预测模型来解决这个问题。现有的用于 HIN 表示学习的 GNN 模型通常侧重于节点分类/聚类任务。它们需要所有边和节点的类型信息,并且总是为每种类型学习一个权重矩阵,因此在具有丰富模式的 HIN 上需要大量的学习参数。相比之下,我们的模型直接在 HIN 中编码和学习关系,避免了 GNN 中消息传递过程中对类型信息的要求。因此,我们的模型对于 HIN 上的关系预测任务的缺失类型更加稳健。在真实 HIN 上的实验表明,我们的模型可以始终如一地获得比几种最先进的 HIN 表示学习方法更好的性能。


LEReg:通过局部能量正则化增强图神经网络


题目:LEReg: Empower Graph Neural Networks with Local Energy Regularization


Authors: Xiaojun Ma,Hanyue Chen,Guojie Song【北京大学】
https://dl.acm.org/doi/abs/10.1145/3459637.3482447

由于图的强大表达能力,使用图神经网络(GNN)分析图的研究越来越受到关注。GNN 将邻接矩阵和节点特征通过消息通过每个卷积层上的边缘映射到节点表示。然而,通过 GNN 传递的消息并不总是对图中的所有部分都有益。具体来说,由于图上的数据分布不同,因此收集信息所需的感受野(节点可以从中获取信息的最远节点)也不同。现有的 GNN 统一处理图的所有部分,这使得很难为每个独特的部分自适应地传递信息量最大的消息。为了解决这个问题,我们提出了两个考虑本地消息传递的正则化项:(1)Intra-Energy Reg 和(2)Inter-Energy Reg。通过实验和理论讨论,我们首先表明不同部分的平滑速度差异很大,每个部分的拓扑结构会影响平滑的方式。通过 Intra-Energy Reg,我们加强了每个部分内部的消息传递,这有利于获得更多有用的信息。通过 Inter-Energy Reg,我们提高了 GNN 区分不同节点的能力。通过提出的两个正则化项,GNN 能够自适应地过滤最有用的信息,更稳健地学习并获得更高的表现力。此外,所提出的 LEReg 可以轻松应用于具有即插即用特性的其他 GNN 模型。在几个基准上的大量实验证实,带有 LEReg 的 GNN 优于或匹配最先进的方法。有效性和效率也通过精心的实验凭经验可视化。

https://dl.acm.org/doi/abs/10.1145/3459637.3482447



登录查看更多
0

相关内容

信息和知识管理会议(CIKM)为介绍和讨论信息和知识管理的研究以及数据和知识库方面的最新进展提供了一个国际论坛。会议的目的是确定未来知识和信息系统发展所面临的具有挑战性的问题,并通过征求和审查高质量的、应用的和理论的研究成果来确定未来的研究方向。会议的一个重要部分是讲习班计划,它侧重于及时的研究挑战和倡议。 官网地址:http://dblp.uni-trier.de/db/conf/cikm/
专知会员服务
38+阅读 · 2021年6月13日
专知会员服务
51+阅读 · 2021年5月30日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
STAM: 一种基于GNN推荐的时空聚合方法 | 论文荐读
CIKM'21 | 动态图神经网络推荐算法
图与推荐
0+阅读 · 2021年11月16日
图神经网络+推荐系统的最新进展
图与推荐
1+阅读 · 2021年11月2日
图神经网络GNN预训练技术进展概述
专知
2+阅读 · 2021年4月12日
深度 | 一文概览图卷积网络基本结构和最新进展
机器之心
17+阅读 · 2017年11月30日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
37+阅读 · 2021年2月10日
Arxiv
102+阅读 · 2020年3月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Knowledge Representation Learning: A Quantitative Review
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关VIP内容
专知会员服务
38+阅读 · 2021年6月13日
专知会员服务
51+阅读 · 2021年5月30日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
相关资讯
相关基金
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
37+阅读 · 2021年2月10日
Arxiv
102+阅读 · 2020年3月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Knowledge Representation Learning: A Quantitative Review
Arxiv
24+阅读 · 2018年10月24日
Top
微信扫码咨询专知VIP会员