Representing a label distribution as a one-hot vector is a common practice in training node classification models. However, the one-hot representation may not adequately reflect the semantic characteristics of a node in different classes, as some nodes may be semantically close to their neighbors in other classes. It would cause over-confidence since the models are encouraged to assign full probabilities when classifying every node. While training models with label smoothing can ease this problem to some degree, it still fails to capture the nodes' semantic characteristics implied by the graph structures. In this work, we propose a novel SALS (\textit{Structure-Aware Label Smoothing}) method as an enhancement component to popular node classification models. SALS leverages the graph structures to capture the semantic correlations between the connected nodes and generate the structure-aware label distribution to replace the original one-hot label vectors, thus improving the node classification performance without inference costs. Extensive experiments on seven node classification benchmark datasets reveal the effectiveness of our SALS on improving both transductive and inductive node classification. Empirical results show that SALS is superior to the label smoothing method and enhances the node classification models to outperform the baseline methods.


翻译:以一热矢量表示标签分布为一热矢量是培训节点分类模型的常见做法。 但是,单热代表可能无法充分反映不同类节点的语义特征, 因为有些节点可能与其他类的邻居关系密切, 这会引起过度信任, 因为鼓励模型在对每个节点进行分类时分配全部概率。 虽然标签平滑的培训模式可以在一定程度上缓解这一问题, 但仍然无法捕捉图结构所隐含的节点语义特性。 在这项工作中, 我们建议采用一个新的 SALS (\ textit{ Structurre-Aware Label 滑动}) 方法作为流行节点分类模型的增强部分。 SALS 将图形结构用于捕捉连接节点之间的语义相关性, 并生成结构认知标签分布, 以取代原有的一热标签矢量, 从而在不推论成本的情况下改进节点分类工作绩效。 在七个节点基准数据设置上进行广泛的实验, 我们的 SALS (\) 显示我们 SALS 在改进高级节点分类方法上的效率, 显示 平稳的升级 和感官略性 排序 模式 显示, 显示 的标签 的排序 显示, 度 度 度 度 度 度 度 度 的 度 度 度 度 的 的 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 分级 分级 度 分级 分级 分级 分级 分级 分级 分级 分级 。

0
下载
关闭预览

相关内容

节点分类任务是一种算法,其必须通过查看其邻居的标签来确定样本(表示为节点)的标签。
专知会员服务
42+阅读 · 2020年12月18日
【KDD2020】图神经网络:基础与应用,322页ppt
专知会员服务
76+阅读 · 2020年8月30日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
已删除
将门创投
5+阅读 · 2018年10月16日
BP神经网络
Datartisan数据工匠
5+阅读 · 2018年8月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
4+阅读 · 2020年9月28日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
已删除
将门创投
5+阅读 · 2018年10月16日
BP神经网络
Datartisan数据工匠
5+阅读 · 2018年8月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关论文
Arxiv
4+阅读 · 2020年9月28日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
12+阅读 · 2018年9月15日
Top
微信扫码咨询专知VIP会员