The \emph{Single-Source Personalized PageRank} (SSPPR) query is central to graph OLAP, measuring the probability $π(s,t)$ that an $α$-decay random walk from node $s$ terminates at $t$. Despite decades of research, a significant gap remains between upper and lower bounds for its computational complexity. Existing upper bounds are $O\left(\min\left(\frac{\log(1/ε)}{ε^2}, \frac{\sqrt{m \log n}}ε, m \log \frac{1}ε\right)\right)$ for SSPPR-A and $O\left(\min\left(\frac{\log(1/n)}δ, \sqrt{m \log(n/δ)}, m \log \left(\frac{\log(n)}{mδ}\right)\right)\right)$ for SSPPR-R, with trivial lower bounds of $Ω(\min(n,1/ε))$ and $Ω(\min(n,1/δ))$. This work narrows or closes this gap. We improve the upper bounds for SSPPR-A and SSPPR-R to $O\left(\frac{1}{ε^2}\right)$ and $O\left(\min\left(\frac{\log(1/δ)}δ, m + n \log(n) \log \left(\frac{\log(n)}{mδ}\right)\right)\right)$, respectively, offering improvements by factors of $\log(1/ε)$ and $\log\left(\frac{\log(n)}{mδ}\right)$. On the lower bound side, we establish stronger results: $Ω(\min(m, 1/ε^2))$ for SSPPR-A and $Ω(\min(m, \frac{\log(1/δ)}δ))$ for SSPPR-R, strengthening theoretical foundations. Our upper and lower bounds for SSPPR-R coincide for graphs with $m \in Ω(n \log^2 n)$ and any threshold $δ, 1/δ\in O(\text{poly}(n))$, achieving theoretical optimality in most graph regimes. The SSPPR-A query attains partial optimality for large error thresholds, matching our new lower bound. This is the first optimal result for SSPPR queries. Our techniques generalize to the Single-Target Personalized PageRank (STPPR) query, improving its lower bound from $Ω(\min(n, 1/δ))$ to $Ω(\min(m, \frac{n}δ \log n))$, matching the upper bound and revealing its optimality.


翻译:\emph{单源个性化PageRank}(SSPPR)查询是图OLAP的核心,用于度量从节点$s$出发的$α$-衰减随机游走终止于节点$t$的概率$π(s,t)$。尽管经过数十年研究,其计算复杂度的上界与下界之间仍存在显著差距。现有上界对SSPPR-A为$O\left(\min\left(\frac{\log(1/ε)}{ε^2}, \frac{\sqrt{m \log n}}ε, m \log \frac{1}ε\right)\right)$,对SSPPR-R为$O\left(\min\left(\frac{\log(1/n)}δ, \sqrt{m \log(n/δ)}, m \log \left(\frac{\log(n)}{mδ}\right)\right)\right)$,而其平凡下界分别为$Ω(\min(n,1/ε))$和$Ω(\min(n,1/δ))$。本文缩小或消除了这一差距。我们将SSPPR-A和SSPPR-R的上界分别改进为$O\left(\frac{1}{ε^2}\right)$和$O\left(\min\left(\frac{\log(1/δ)}δ, m + n \log(n) \log \left(\frac{\log(n)}{mδ}\right)\right)\right)$,分别实现了$\log(1/ε)$和$\log\left(\frac{\log(n)}{mδ}\right)$因子的改进。在下界方面,我们建立了更强的结果:对SSPPR-A为$Ω(\min(m, 1/ε^2))$,对SSPPR-R为$Ω(\min(m, \frac{\log(1/δ)}δ))$,从而强化了理论基础。对于满足$m \in Ω(n \log^2 n)$且任意阈值$δ, 1/δ\in O(\text{poly}(n))$的图,我们得到的SSPPR-R上界与下界完全吻合,在大多数图场景下达到了理论最优性。SSPPR-A查询在大误差阈值条件下实现了部分最优性,与我们提出的新下界相匹配。这是SSPPR查询领域的首个最优性结果。我们的技术可推广至单目标个性化PageRank(STPPR)查询,将其下界从$Ω(\min(n, 1/δ))$提升至$Ω(\min(m, \frac{n}δ \log n))$,与现有上界匹配并揭示了其最优性。

0
下载
关闭预览

相关内容

【ICML2025】生成模型中潜空间的Hessian几何结构
专知会员服务
17+阅读 · 6月15日
专知会员服务
50+阅读 · 2021年6月2日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
25+阅读 · 2021年5月20日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
Seq2seq强化,Pointer Network简介
机器学习算法与Python学习
15+阅读 · 2018年12月8日
CNN 反向传播算法推导
统计学习与视觉计算组
30+阅读 · 2017年12月29日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
Seq2seq强化,Pointer Network简介
机器学习算法与Python学习
15+阅读 · 2018年12月8日
CNN 反向传播算法推导
统计学习与视觉计算组
30+阅读 · 2017年12月29日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员