Graph Neural Networks (GNNs) are powerful tools for learning from graph-structured data, but their application to large graphs is hindered by computational costs. The need to process every neighbor for each node creates memory and computational bottlenecks. To address this, we introduce BLISS, a Bandit Layer Importance Sampling Strategy. It uses multi-armed bandits to dynamically select the most informative nodes at each layer, balancing exploration and exploitation to ensure comprehensive graph coverage. Unlike existing static sampling methods, BLISS adapts to evolving node importance, leading to more informed node selection and improved performance. It demonstrates versatility by integrating with both Graph Convolutional Networks (GCNs) and Graph Attention Networks (GATs), adapting its selection policy to their specific aggregation mechanisms. Experiments show that BLISS maintains or exceeds the accuracy of full-batch training.


翻译:图神经网络(GNNs)是处理图结构数据的强大工具,但其在大规模图上的应用受限于计算开销。传统方法需为每个节点处理其所有邻居,导致内存与计算瓶颈。为此,我们提出BLISS——一种基于多臂老虎机的层重要性采样策略。该方法通过多臂老虎机动态选择每层信息量最高的节点,在探索与利用之间取得平衡,从而确保对图的全面覆盖。与现有静态采样方法不同,BLISS能够自适应节点重要性的动态变化,实现更精准的节点选择并提升模型性能。该策略展现出良好的通用性,可同时集成于图卷积网络(GCNs)与图注意力网络(GATs)中,并根据其特定的聚合机制调整选择策略。实验表明,BLISS在保持或超越全批量训练精度的同时显著提升了训练效率。

0
下载
关闭预览

相关内容

论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员