Graph Convolutional Network (GCN) has achieved extraordinary success in learning effective task-specific representations of nodes in graphs. However, regarding Heterogeneous Information Network (HIN), existing HIN-oriented GCN methods still suffer from two deficiencies: (1) they cannot flexibly explore all possible meta-paths and extract the most useful ones for a target object, which hinders both effectiveness and interpretability; (2) they often need to generate intermediate meta-path based dense graphs, which leads to high computational complexity. To address the above issues, we propose an interpretable and efficient Heterogeneous Graph Convolutional Network (ie-HGCN) to learn the representations of objects in HINs. It is designed as a hierarchical aggregation architecture, i.e., object-level aggregation first, followed by type-level aggregation. The novel architecture can automatically extract useful meta-paths for each object from all possible meta-paths (within a length limit), which brings good model interpretability. It can also reduce the computational cost by avoiding intermediate HIN transformation and neighborhood attention. We provide theoretical analysis about the proposed ie-HGCN in terms of evaluating the usefulness of all possible meta-paths, its connection to the spectral graph convolution on HINs, and its quasi-linear time complexity. Extensive experiments on three real network datasets demonstrate the superiority of ie-HGCN over the state-of-the-art methods.


翻译:在通过图表来了解各节点在具体任务上的有效表现方面取得了非凡的成功,然而,关于异质信息网络(HIN),目前面向HIN的GCN方法仍然有两个缺陷:(1) 它们不能灵活地探索所有可能的元路径,并为目标对象提取最有用的元路径,从而妨碍有效性和可解释性;(2) 它们往往需要生成中间的基于元路径的密度图,从而导致计算复杂性高;为了解决上述问题,我们建议建立一个可解释的、高效的异质相向图像网络(i-HGCN),以了解HINs中对象的表示;它的设计是作为一个等级组合结构,即目标级集合,然后是类型级集合;新结构可以自动地从所有可能的元路径图(在一定的长度范围内)中提取对每个对象有用的元路径;为了解决上述问题,我们建议建立一个可解释的、高效的超异质性图表相联网(i-HGCN)来了解HIN的物体的表示;我们从评估其真实性、真实性、真实性、真实性、真实性GMIS的网络联系的角度分析其所有可能具有的频率的数据。

15
下载
关闭预览

相关内容

专知会员服务
57+阅读 · 2021年4月29日
专知会员服务
52+阅读 · 2020年11月3日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Rethinking Graph Transformers with Spectral Attention
Arxiv
1+阅读 · 2021年10月27日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
3+阅读 · 2020年4月29日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关资讯
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Rethinking Graph Transformers with Spectral Attention
Arxiv
1+阅读 · 2021年10月27日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
3+阅读 · 2020年4月29日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
4+阅读 · 2017年11月13日
Top
微信扫码咨询专知VIP会员