Projections of bipartite or two-mode networks capture co-occurrences, and are used in diverse fields (e.g., ecology, economics, bibliometrics, politics) to represent unipartite networks that would otherwise be difficult or impossible to measure directly. A key challenge in analyzing such networks is determining whether an observed number of co-occurrences is significant. Several models now exist for doing so and thus for extracting the backbone of bipartite projections, but they have not been directly compared to each other. In this paper, we compare five such models -- fixed fill model (FFM) fixed row model (FRM), fixed column model (FCM), fixed degree sequence model (FDSM), and stochastic degree sequence model (SDSM) -- in terms of accuracy, speed, statistical power, similarity, and community detection. We find that the computationally-fast SDSM offers a statistically conservative but close approximation of the computationally-impractical FDSM under a wide range of conditions, and that it correctly recovers a known community structure even when the signal is weak. Therefore, although each backbone model may have particular applications, we recommend SDSM for extracting the backbone of most bipartite projections.


翻译:两极网络或双模式网络的预测显示共发现象,并用于不同领域(例如生态、经济学、双光度计、政治),以代表否则难以或无法直接计量的单方网络。分析这种网络的一个关键挑战是确定观察到的共同发现象数量是否重要。现在已有若干模型可以这样做,从而提取两极预测的骨干,但它们没有直接比较。在本文中,我们比较了五种模型 -- -- 固定填充模型(FFM)固定行模型(FRM)、固定柱模型(FCM)、固定度序列模型(FDSM)、固定度序列模型(SDSM),以及随机度序列模型(SDSSM) -- -- 在准确性、速度、统计能力、相似性和社区检测方面,这是关键度模型的关键挑战。我们发现,在多种条件下,快速计算SDSM在统计上较为保守,但与计算不精确的FDSMSM相近,而且它正确地恢复了已知的社区结构结构,即使信号是薄弱的,我们建议对SDM的每一个主基石模型都进行特定的预测。

0
下载
关闭预览

相关内容

【MIT干货书】机器学习算法视角,126页pdf
专知会员服务
77+阅读 · 2021年1月25日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
专知会员服务
39+阅读 · 2020年9月6日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
字节跳动 2019 ICME 双赛道冠军团队方案分享
PaperWeekly
50+阅读 · 2019年8月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
18+阅读 · 2020年10月9日
Arxiv
110+阅读 · 2020年2月5日
Arxiv
7+阅读 · 2018年3月21日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
相关资讯
字节跳动 2019 ICME 双赛道冠军团队方案分享
PaperWeekly
50+阅读 · 2019年8月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员