A scalable semi-supervised node classification method on graph-structured data, called GraphHop, is proposed in this work. The graph contains attributes of all nodes but labels of a few nodes. The classical label propagation (LP) method and the emerging graph convolutional network (GCN) are two popular semi-supervised solutions to this problem. The LP method is not effective in modeling node attributes and labels jointly or facing a slow convergence rate on large-scale graphs. GraphHop is proposed to its shortcoming. With proper initial label vector embeddings, each iteration of GraphHop contains two steps: 1) label aggregation and 2) label update. In Step 1, each node aggregates its neighbors' label vectors obtained in the previous iteration. In Step 2, a new label vector is predicted for each node based on the label of the node itself and the aggregated label information obtained in Step 1. This iterative procedure exploits the neighborhood information and enables GraphHop to perform well in an extremely small label rate setting and scale well for very large graphs. Experimental results show that GraphHop outperforms state-of-the-art graph learning methods on a wide range of tasks (e.g., multi-label and multi-class classification on citation networks, social graphs, and commodity consumption graphs) in graphs of various sizes. Our codes are publicly available on GitHub (https://github.com/TianXieUSC/GraphHop).


翻译:本文中建议了图形结构数据上可缩放的半监督节点分类方法。 图表包含所有节点的属性, 但有几个节点的标签。 古典标签传播( LP) 方法和正在形成的图形变形网络( GCN) 是解决这一问题的两种受欢迎的半监督解决方案。 LP 方法在制作结点属性和标签时并不有效, 或在大比例图上面临缓慢的趋同率。 GreaphHop 被推荐到它的短处。 有了适当的初始标签矢量嵌入, GreaphHop 的每一次迭代都包含两个步骤:1 标签汇总和 2 标签更新。 在步骤1 中, 古典标签传播的标签传播( LP) 传播( LP) 和 图形转换( GiLObHO) 的多级图中, 实验结果显示每个节点的标签矢量, 以节点本身的标签信息为基础, 以及第 1 步中获取的综合标签信息。 这一迭程序利用周边信息, 使GreaphHO/ greop 能够以非常小的标签率设定和比例, 用于非常大的图表。 的图表。 。 实验性图表中, 的图表中, 的图表中, 的分类- grealbroal- glasmab- glas- glas- sal- glas- salb- salb- glasma- salus- salus- salb- salb- sal- salb- salgalgaldaldaldaldal- sal- saldald- sal- sal- salg- sal- sal- sal- sal- sal- sal- salg- sal- sal- sal- sal- sal- sal- sal- sal- saldal- salgaldald- salgald- sal- sol- sal- sal- sal- sald- sal- sal- sal- sald- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- s

1
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2020年11月24日
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
63+阅读 · 2020年8月19日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
15+阅读 · 2020年1月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
标签传播算法(Label Propagation)及 Python 实现
Python开发者
6+阅读 · 2017年9月18日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
11+阅读 · 2018年10月17日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
标签传播算法(Label Propagation)及 Python 实现
Python开发者
6+阅读 · 2017年9月18日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Top
微信扫码咨询专知VIP会员