Graph-structured data exhibit substantial heterogeneity in where their predictive signals originate: in some domains, node-level semantics dominate, while in others, structural patterns play a central role. This structure-semantics heterogeneity implies that no graph learning model with a fixed inductive bias can generalize optimally across diverse graph domains. However, most existing methods address this challenge from the model side by incrementally injecting new inductive biases, which remains fundamentally limited given the open-ended diversity of real-world graphs. In this work, we take a data-centric perspective and treat node semantics as a task-adaptive variable. We propose a Data-Adaptive Semantic Refinement framework DAS for graph representation learning, which couples a fixed graph neural network (GNN) and a large language model (LLM) in a closed feedback loop. The GNN provides implicit supervisory signals to guide the semantic refinement of LLM, and the refined semantics are fed back to update the same graph learner. We evaluate our approach on both text-rich and text-free graphs. Results show consistent improvements on structure-dominated graphs while remaining competitive on semantics-rich graphs, demonstrating the effectiveness of data-centric semantic adaptation under structure-semantics heterogeneity.


翻译:图结构数据在预测信号来源方面表现出显著的异质性:在某些领域中,节点级语义占主导地位,而在其他领域中,结构模式则起着核心作用。这种结构-语义异质性意味着,任何具有固定归纳偏好的图学习模型都无法在多样化的图领域中实现最优泛化。然而,现有方法大多从模型侧应对这一挑战,通过逐步注入新的归纳偏好来改进,考虑到现实世界图数据的开放多样性,这种方法本质上仍存在局限。在本研究中,我们采取以数据为中心的视角,将节点语义视为任务自适应变量。我们提出了一种用于图表示学习的数据自适应语义精化框架DAS,该框架将固定的图神经网络(GNN)与大语言模型(LLM)耦合在一个闭环反馈回路中。GNN提供隐式监督信号来指导LLM的语义精化,而精化后的语义则被反馈以更新同一图学习器。我们在文本丰富和文本匮乏的图上评估了我们的方法。结果表明,该方法在结构主导的图上持续取得改进,同时在语义丰富的图上保持竞争力,这证明了在结构-语义异质性下以数据为中心的语义自适应方法的有效性。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年6月19日
专知会员服务
69+阅读 · 2021年4月27日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员