Domain adaptation using graph networks learns label-discriminative and network-invariant node embeddings by sharing graph parameters. Most existing works focus on domain adaptation of homogeneous networks. The few works that study heterogeneous cases only consider shared node types but ignore private node types in individual networks. However, for given source and target heterogeneous networks, they generally contain shared and private node types, where private types bring an extra challenge for graph domain adaptation. In this paper, we investigate Heterogeneous Information Networks (HINs) with partially shared node types and propose a novel Domain Adaptive Heterogeneous Graph Transformer (DA-HGT) to handle the domain shift between them. DA-HGT can not only align the distribution of identical-type nodes and edges in two HINs but also make full use of different-type nodes and edges to improve the performance of knowledge transfer. Extensive experiments on several datasets demonstrate that DA-HGT can outperform state-of-the-art methods in various domain adaptation tasks across heterogeneous networks.


翻译:使用图形网络进行域适应,通过共享图形参数来学习标签差异和网络变量节点嵌入。大多数现有工作都侧重于同质网络的域适应。研究不同案例的少数工作只考虑共享节点类型,而忽略了单个网络中的私人节点类型。然而,对于特定源和目标差异网络来说,它们通常包含共享和私人节点类型,私人类型给图形域适应带来额外的挑战。在本文中,我们调查部分共享节点类型的异质信息网络(HINs),并提出一个新的“DA-HGT”(DA-HGT)来处理它们之间的域转移。DA-HGT不仅可以对两个HIN中相同类型节点和边缘的分布进行统一,而且还可以充分利用不同类型节点和边缘来改进知识转让的绩效。在多个数据集上进行的广泛实验表明,DA-HGT(HINT)可以超越不同不同领域适应任务中的状态方法。

1
下载
关闭预览

相关内容

注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
【图神经网络(GNN)结构化数据分析】
专知会员服务
115+阅读 · 2020年3月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
图神经网络(GNN)结构化数据分析
专知
5+阅读 · 2020年3月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
4+阅读 · 2020年9月28日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Kernel Graph Attention Network for Fact Verification
Arxiv
3+阅读 · 2019年10月23日
Arxiv
3+阅读 · 2019年3月26日
Arxiv
23+阅读 · 2018年10月1日
VIP会员
相关VIP内容
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
【图神经网络(GNN)结构化数据分析】
专知会员服务
115+阅读 · 2020年3月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
相关资讯
图神经网络(GNN)结构化数据分析
专知
5+阅读 · 2020年3月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
相关论文
Arxiv
4+阅读 · 2020年9月28日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Kernel Graph Attention Network for Fact Verification
Arxiv
3+阅读 · 2019年10月23日
Arxiv
3+阅读 · 2019年3月26日
Arxiv
23+阅读 · 2018年10月1日
Top
微信扫码咨询专知VIP会员