引言

图模型,特别是在节点级任务中的成功,通常被认为源于同质性原则。同质性(Homophily)是社会学和进化生物学中的一个概念,指的是具有相似特征的个体更容易进行交流和建立联系。在图表示学习中,它描述了节点具有相同标签或相似属性的网络,这些节点更可能相互连接。这样的关系归纳偏差被认为是图神经网络(GNNs)在各类任务中优于传统神经网络(NNs)的主要原因之一。

另一方面,缺乏同质性,即异质性(Heterophily),被认为是GNN在异质图(heterophilic graphs)上表现较差的主要原因,这种性能退化现象在广泛的应用场景中都有出现。人们重新审视并评估了许多现有的图模型,包括图转换器(graph transformer)及其变种,特别是在各种异质图场景中的表现,例如异构图、时序图和超图等。此外,异质性问题广泛涉及许多与图相关的应用(如图1-6所示),例如图欺诈/异常检测、点云分割、城市计算、推荐系统、场景图生成、药物发现、大脑网络分析、链路预测、隐私保护、图对抗攻击与鲁棒性等。近年来,针对异质性问题,已经投入了大量的研究和努力。

在本教程中,我们将系统地总结最新的异质性图学习进展,并以易于理解的方式呈现给读者。内容包括:(1)基准数据集的分类及在合成图上的同质性度量评估;(2)最新监督与无监督学习方法的细致分类;(3)同质性/异质性的理论分析;(4)与异质性相关的应用;(5)异质性图学习的挑战与未来方向。

https://sites.google.com/mila.quebec/heterophilic-graph-learning/home

示例 如图6所示,对于不可区分的边界节点,同质性结构通过对原始节点特征进行聚合,提供了额外的有用信息。这种关系归纳偏差被认为是图神经网络(GNNs)在各类任务中优于传统神经网络(NNs)的主要原因之一。另一方面,如图7所示,边界节点拥有更多的异质性邻居,而非同质性邻居。由于异质性边缘连接的是不同类别的节点,它们可能导致节点嵌入的混合和不可区分,从而使得图神经网络的分类任务变得更加困难。

目标

本教程的目标是:(1)让大家意识到异质性问题,并理解并非所有图结构对于学习都是有用的或有益的;(2)帮助读者快速全面地回顾最新的异质性特定图模型;(3)总结实际应用,帮助读者开展与相关主题的未来研究。


课程安排(90分钟)

引言与背景知识(Sitao Luan,5分钟)

  • 同质性/异质性定义
  • 小心你的图:为什么在图学习中必须考虑异质性
  • 同质性度量

同质性度量(Sitao Luan,Qincheng Lu 和 Jiaqi Zhu 演示代码,10分钟)

  • 图-标签一致性
  • 基于相似性的度量
  • 邻域可辨识性/信息量
  • 基于假设检验的性能度量

基准数据集(Qincheng Lu,Qincheng Lu 和 Jiaqi Zhu 演示代码,15分钟)

  • 良性、恶性和模糊的异质性数据集
  • 在合成图上评估同质性度量

异质性模型(Sitao Luan,15分钟)

  • 在同质性图上的监督学习
  • 在同质性图上的无监督学习

理论研究(Sitao Luan,15分钟)

  • 中等同质性陷阱
  • 同质性与分布偏移

与同质性/异质性相关的应用(Sitao Luan,15分钟)

  • 欺诈/异常检测
  • 链路预测
  • 图学习任务
  • 计算机视觉
  • 场景图生成
  • 点云分割

挑战与未来方向(Chenqing Hua 和 Sitao Luan,15分钟)

  • 异质性在异构GNN中的表现
  • 异质性在时序GNN中的表现
  • 异质性在超图中的表现
  • 公平性问题
  • 大型语言模型和基础模型
  • 分子设计

成为VIP会员查看完整内容
24

相关内容

【ICML2024】社区不变图对比学习
专知会员服务
24+阅读 · 2024年5月4日
【KDD2023】分布外图学习
专知会员服务
31+阅读 · 2023年8月17日
清华最新《解耦表征学习》综述
专知会员服务
68+阅读 · 2023年2月23日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
46+阅读 · 2022年7月10日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
16+阅读 · 2022年3月17日
【WWW2022】再思考图卷积网络的知识图谱补全
专知会员服务
34+阅读 · 2022年2月15日
专知会员服务
19+阅读 · 2021年9月6日
专知会员服务
36+阅读 · 2021年7月9日
【WWW2021】本体增强零样本学习
专知会员服务
33+阅读 · 2021年2月26日
【ICML2020】图神经网络谱聚类
专知
10+阅读 · 2020年7月7日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关主题
相关VIP内容
【ICML2024】社区不变图对比学习
专知会员服务
24+阅读 · 2024年5月4日
【KDD2023】分布外图学习
专知会员服务
31+阅读 · 2023年8月17日
清华最新《解耦表征学习》综述
专知会员服务
68+阅读 · 2023年2月23日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
46+阅读 · 2022年7月10日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
16+阅读 · 2022年3月17日
【WWW2022】再思考图卷积网络的知识图谱补全
专知会员服务
34+阅读 · 2022年2月15日
专知会员服务
19+阅读 · 2021年9月6日
专知会员服务
36+阅读 · 2021年7月9日
【WWW2021】本体增强零样本学习
专知会员服务
33+阅读 · 2021年2月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
相关论文
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
Arxiv
19+阅读 · 2018年10月25日
微信扫码咨询专知VIP会员