The analysis of network data has gained considerable interest in the recent years. This also includes the analysis of large, high dimensional networks with hundreds and thousands of nodes. While Exponential Random Graph Models (ERGMs) serve as workhorse for network data analyses, their applicability to very large networks is problematic via classical inference such as maximum likelihood or fully Bayesian estimation due to scaling and instability issues. The latter trace from the fact, that classical network statistics consider nodes as exchangeable, i.e. actors in the network are assumed to be homogeneous. This is often questionable and one way to circumvent the restrictive assumption is to include actor specific random effects which account for unobservable heterogeneity. This in turn however increases the number of unknowns considerably making the model highly-parameterized. As a solution even for very large networks we propose a scalable approach based on variational approximations, which not only leads to numerically stable estimation but is also applicable to high-dimensional directed as well as undirected networks. We furthermore show that including node specific covariates can reduce node heterogeneity which we facilitate through versatile prior formulations. We demonstrate the procedure in two complex examples, namely Facebook data and data from an international arms trading network.


翻译:对网络数据的分析近年来引起了相当大的兴趣,这还包括对拥有数百个和数千个节点的大型、高维网络进行了分析。虽然在网络数据分析中作为工作马,但通过传统推论,例如由于规模扩大和不稳定问题,最大可能性或完全巴伊西亚估算等典型推论,这些模型对大型网络的可适用性很成问题。从这一事实可以看出,古典网络统计认为节点是可以互换的,即网络中的行为者被假定为是同质的。这往往是值得怀疑的,绕过限制性假设的一种方式是包括说明不可观测性异异质性的行为者的特定随机效应。然而,这反过来又增加了使模型高度对准化的未知因素的数量。即使对于非常大的网络,我们提出一个基于变异近的可伸缩办法,这不仅导致数字稳定的估计,而且还适用于高维度的网络以及非定向网络。我们进一步表明,包括具体变量在内的特定变量可以减少不易发生的任何异性,即表明,我们通过之前的多用途网络编制,从而便于进行多种形式和多种形式数据。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
专知会员服务
44+阅读 · 2020年10月31日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
2+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年6月14日
Adversarial Robustness in Cognitive Radio Networks
Arxiv
0+阅读 · 2022年6月14日
Arxiv
10+阅读 · 2021年2月18日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
2+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员