2025年的IJCAI(International Joint Conference on Artificial Intelligence) 于8月16日至8月22日在加拿大蒙特利尔召开。IJCAI是中国计算机学会推荐的A类国际学术会议,是人工智能领域最具权威性和影响力的学术会议之一。本次IJCAI 2025一共有5404篇投稿,录用1042篇,录用率19.3%。

来自清华大学的研究团队带来《分布偏移下的图机器学习:适配性、泛化性与图大模型》教程,值得关注!

概述

图机器学习近年来在学术界和工业界快速发展,广泛应用于社交网络、推荐系统、生物信息、药物研发等领域,展现出巨大潜力。然而,大部分研究基于同分布假设,即训练与测试数据来自相同分布。但在真实世界中,这一假设往往难以成立,社交网络结构不断演化,用户行为模式持续变化,生物医学数据也存在人群差异。此时,模型性能在分布外场景(Out-of-Distribution, OOD)会显著下降。如何让图模型在OOD场景中依然保持稳定、可靠的表现,已成为学术界和产业界共同关注的前沿问题。本教程系统总结该领域的最新进展,围绕以下三个方向展开: ·图模型适配(Graph OOD Adaptation):从模型、优化和数据三个维度,探索如何快速适配新分布,保持性能稳定。 ·图模型泛化(Graph OOD Generalization):通过因果建模、解耦建模、不变性学习和数据增强,提升跨分布的稳定性与泛化性。 ·图大模型(Graph LLMs & Graph Foundation Models):梳理 LLMs 与图学习的结合方式,包括编码、对齐与预测三大视角,以及 GNN 驱动与 LLM 驱动两类基础模型路线。

教程大纲

本教程时长1小时45分钟,共分五部分: 1.研究动机与基础概念(15分钟) o分布偏移的定义、挑战与研究价值 2.图模型适配(Graph OOD Adaptation)(25分钟) o模型层面:自动化适配,利用自动化方法设计能适应分布变化的图模型结构。 o优化层面:分布对齐训练,通过优化策略缩小训练与测试分布差异。 o数据层面:图数据增强,在训练阶段引入更多潜在分布,提高模型适应性。 3.图模型泛化(Graph OOD Generalization)(25分钟) o模型层面:因果建模捕捉跨环境的稳定关系,解耦建模分离稳定与变化因素。 o优化层面:不变性学习,通过约束确保表征在多分布下保持一致。 o数据层面:数据增强,提升模型在多样分布下的泛化能力。 4.图与大模型结合(Graph LLMs & Graph Foundation Models)(25分钟) oGraph LLMs:LLM 可作为编码器、对齐器或预测器,分别承担表示学习、语义对齐和任务预测功能。 oGraph Foundation Models:分为 GNN 驱动与 LLM 驱动两条路线。前者遵循“Pretrain-then-Adapt”范式,先在大规模图数据上预训练,再迁移到下游任务;后者遵循“Tokenization-then-Post-training”范式,将图结构转化为序列,再通过大模型输出。 5.未来方向与讨论(15分钟) o更复杂与动态场景下的评估挑战 o图学习与 LLMs 的深度融合趋势 o面向工业应用的可扩展与可信赖方案

目标受众与前提条件

本教程既展示最新进展与前沿研究,也对入门听众友好,适合: ·图机器学习和数据挖掘领域的研究人员与学生; ·在实际应用中面临分布偏移挑战的产业从业者; ·对 LLM 与图学习结合感兴趣的学者与工程师。

成为VIP会员查看完整内容
1

相关内容

【IJCAI2025教程】深度图异常检测,144页PPT
专知会员服务
2+阅读 · 今天12:28
【AAAI2024教程】大模型知识编辑,192页ppt
专知会员服务
79+阅读 · 2024年2月29日
【AAAI2024教程】图反事实可解释性:全面的景观,100页ppt
【AAAI2024】不完美数据下的可信机器学习
专知会员服务
53+阅读 · 2024年2月26日
【AAAI2024教程】物理信息机器学习的最新进展
专知会员服务
72+阅读 · 2024年2月25日
专知会员服务
64+阅读 · 2021年6月22日
CCAI 2019|视觉语音语言多模态论坛嘉宾介绍
中国人工智能学会
12+阅读 · 2019年9月3日
246 页《统计机器学习与凸优化》教程 PPT 下载
新智元
25+阅读 · 2018年9月21日
【迁移学习】迁移学习在图像分类中的简单应用策略
【知识图谱】AI基石知识图谱与百度AI布局
产业智能官
28+阅读 · 2017年11月20日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
45+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
482+阅读 · 2023年3月31日
Arxiv
18+阅读 · 2021年3月16日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
45+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员