Existing graph summarization algorithms are tailored to specific graph summary models, only support one-time batch computation, are designed and implemented for a specific task, or are evaluated using static graphs. Our novel, incremental, parallel algorithm addresses all of these shortcomings. We support infinitely many structural graph summary models defined in a formal language. All graph summaries can be updated in time $\mathcal{O}(\Delta \cdot d^k)$, where $\Delta$ is the number of additions, deletions, and modifications to the input graph, $d$ is its maximum degree, and $k$ is the maximum distance in the subgraphs considered while summarizing. We empirically evaluate the performance of our incremental algorithm on benchmark and real-world datasets. Overall our experiments show that, for commonly used summary models and datasets, the incremental summarization algorithm almost always outperforms its batch counterpart, even when about $50\%$ of the graph database changes. Updating the summaries of the real-world DyLDO-core dataset with our incremental algorithm is $5$ to $44$~times faster than computing a new summary, when using four cores. Furthermore, the incremental computations require a low memory overhead of only $8\%$ ($\pm 1\%$). Finally, the incremental summarization algorithm outperforms the batch algorithm even when using fewer cores.


翻译:现有的图形总和算算法是针对特定的图形摘要模型定制的,只支持一次性批量计算,为特定任务设计和实施,或用静态图表进行评估。我们的新颖的、递增的平行算法解决所有这些缺点。我们支持以正式语言定义的许多结构图总和模型。所有的图形总和算法可以及时更新$\mathcal{O}(\Delta\cdd ⁇ k),即使图表数据库的变化是50美元左右,也几乎总是超过其批量对应方。用我们递增的算法更新真实的DyLDO核心数据集的概要为最高程度,在总结时考虑的子组的最大距离为$444美元。我们用经验评估基准和真实世界数据集的递增算法的绩效。总体我们实验显示,对于常用的汇总模型和数据集来说,递增的加和总和算算法几乎总是超过其批量对应方,即使图表数据库的变化是50美元左右。在我们递增的算法中更新了真实世界DyLD核心数据集集的概要,在总结过程中考虑的递增值为5美元至44美元,最后需要快速的缩缩缩缩缩缩缩缩缩 。

0
下载
关闭预览

相关内容

一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
108+阅读 · 2020年6月10日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
保序最优传输:Order-preserving Optimal Transport
我爱读PAMI
6+阅读 · 2018年9月16日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2017年4月12日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
保序最优传输:Order-preserving Optimal Transport
我爱读PAMI
6+阅读 · 2018年9月16日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员