Classical graph modeling approaches such as Erd\H{o}s R\'{e}nyi (ER) random graphs or Barab\'asi-Albert (BA) graphs, here referred to as stylized models, aim to reproduce properties of real-world graphs in an interpretable way. While useful, graph generation with stylized models requires domain knowledge and iterative trial and error simulation. Previous work by Stoehr et al. (2019) addresses these issues by learning the generation process from graph data, using a disentanglement-focused deep autoencoding framework, more specifically, a $\beta$-Variational Autoencoder ($\beta$-VAE). While they successfully recover the generative parameters of ER graphs through the model's latent variables, their model performs badly on sequentially generated graphs such as BA graphs, due to their oversimplified decoder. We focus on recovering the generative parameters of BA graphs by replacing their $\beta$-VAE decoder with a sequential one. We first learn the generative BA parameters in a supervised fashion using a Graph Neural Network (GNN) and a Random Forest Regressor, by minimizing the squared loss between the true generative parameters and the latent variables. Next, we train a $\beta$-VAE model, combining the GNN encoder from the first stage with an LSTM-based decoder with a customized loss.


翻译:古典图形模型方法,如Erd\H{o}s R\{{e}nyi (ER) 随机图或Barab\'asi-Albert(BA) 图,这里称为Styliz化模型,目的是以可解释的方式复制真实世界图的属性。虽然有用,但使用Styliz化模型的图形生成需要域知识以及迭接试验和误差模拟。Stoehr等人(2019年)以前的工作是解决这些问题的,方法是从图形数据中学习生成过程,具体地说,使用一个以美元为主的深度自动解析框架,更具体地说,即一个以美元为主的定制的定制自动自动自动解析器($\beta$-VaE)图。虽然它们成功地通过模型的潜在变量复制了真实世界图的基因化参数。但是,由于BABA图过于简单化的解析,因此其模型的基因化参数被恢复了。我们首先从一个依次的美元-VAED-VA值模型中,用一个将G-N-N-BER的模型与一个新的RE-revil-ration-reval IM Best-ral IM 模型的模型进行监管的模型化的模型,我们先从一个对Best-ral-ral-ral-real-real-real-real的模型的模型学的模型进行观察的模型学习。

0
下载
关闭预览

相关内容

专知会员服务
89+阅读 · 2021年6月29日
专知会员服务
32+阅读 · 2021年6月12日
专知会员服务
28+阅读 · 2021年5月2日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月30日
Arxiv
3+阅读 · 2018年6月18日
Arxiv
4+阅读 · 2018年4月10日
Arxiv
3+阅读 · 2018年1月31日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关VIP内容
专知会员服务
89+阅读 · 2021年6月29日
专知会员服务
32+阅读 · 2021年6月12日
专知会员服务
28+阅读 · 2021年5月2日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员