Temporal networks serve as abstractions of many real-world dynamic systems. These networks typically evolve according to certain laws, such as the law of triadic closure, which is universal in social networks. Inductive representation learning of temporal networks should be able to capture such laws and further be applied to systems that follow the same laws but have not been unseen during the training stage. Previous works in this area depend on either network node identities or rich edge attributes and typically fail to extract these laws. Here, we propose Causal Anonymous Walks (CAWs) to inductively represent a temporal network. CAWs are extracted by temporal random walks and work as automatic retrieval of temporal network motifs to represent network dynamics while avoiding the time-consuming selection and counting of those motifs. CAWs adopt a novel anonymization strategy that replaces node identities with the hitting counts of the nodes based on a set of sampled walks to keep the method inductive, and simultaneously establish the correlation between motifs. We further propose a neural-network model CAW-N to encode CAWs, and pair it with a CAW sampling strategy with constant memory and time cost to support online training and inference. CAW-N is evaluated to predict links over 6 real temporal networks and uniformly outperforms previous SOTA methods by averaged 15% AUC gain in the inductive setting. CAW-N also outperforms previous methods in 5 out of the 6 networks in the transductive setting.


翻译:这些网络通常根据某些法律演变,例如三重封闭法,这种法律在社交网络中是普遍的。时间网络的感性代表性学习应当能够捕捉到这种法律,并进一步适用于遵循相同法律但培训阶段不为人知的系统。该领域以前的工作取决于网络节点身份或丰富的边缘属性,通常无法提取这些法律。在这里,我们提议Causal匿名漫步(CAWs)以感应方式代表一个时间性网络。CAW-N 由时间随机散行提取,工作是自动检索Team网络模块,以代表网络动态,同时避免时间耗费的选择和计数这些模型。CAWAWs采用新的匿名化战略,以根据抽样行道对节点的点击计数取代节点,以保持感性方法,同时建立Motifs之间的关联。我们进一步提议用N型网络内线性模型来编码CAAWAW6随机流动,同时在CAAW 5 平均时间网络中以CAWS-CS-CS-CSimalimal Craimal Craimal Craimal 和CAW Acreal creal crecual creal crecuduction to crecuduction acuducududududuction 15 10 和C-C-CAW acalst crecuild rost romocal romocal 10 10 和CAWAWAW) 之前,同时在前15 之前对AWAWAWAWAV 和C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-C-calmmalmmal recal recal recal recal recal recal recal recal recal-cal-cal-cal-cal-cal-cal-C-C-C-C-C-C-C-C-cal-c

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
【KDD2020教程】多模态网络表示学习
专知会员服务
131+阅读 · 2020年8月26日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
Arxiv
3+阅读 · 2018年8月27日
Arxiv
3+阅读 · 2018年4月10日
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关VIP内容
【KDD2020教程】多模态网络表示学习
专知会员服务
131+阅读 · 2020年8月26日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员