There is a trivial $O(\frac{n^3}{T})$ time algorithm for approximate triangle counting where $T$ is the number of triangles in the graph and $n$ the number of vertices. At the same time, one may count triangles exactly using fast matrix multiplication in time $\tilde{O}(n^\omega)$. Is it possible to get a negative dependency on the number of triangles $T$ while retaining the $n^\omega$ dependency on $n$? We answer this question positively by providing an algorithm which runs in time $O\big(\frac{n^\omega}{T^{\omega - 2}}\big) \cdot \text{poly}(n^{o(1)}/\epsilon)$. This is optimal in the sense that as long as the exponent of $T$ is independent of $n, T$, it cannot be improved while retaining the dependency on $n$; this as follows from the lower bound of Eden and Rosenbaum [APPROX/RANDOM 2018]. Our algorithm improves upon the state of the art when $T = \omega(1)$ and $T = o(n)$. We also consider the problem of approximate triangle counting in sparse graphs, parameterizing by the number of edges $m$. The best known algorithm runs in time $\tilde{O}\big(\frac{m^{3/2}}{T}\big)$ [Eden et al., SIAM Journal on Computing, 2017]. There is also a well known algorithm for exact triangle counting that runs in time $\tilde{O}(m^{2\omega/(\omega + 1)})$. We again get an algorithm that retains the exponent of $m$ while running faster on graphs with larger number of triangles. Specifically, our algorithm runs in time $O\Big(\frac{m^{2\omega/(\omega+1)}}{ T^{2(\omega-1)/(\omega+1)}}\Big) \cdot \text{poly}(n^{o(1)}/\epsilon)$. This is again optimal in the sense that if the exponent of $T$ is to be constant, it cannot be improved without worsening the dependency on $m$. This algorithm improves upon the state of the art when $T = \omega(1)$ and $T = o(\sqrt{m})$.


翻译:(\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\可以\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年4月2日
专知会员服务
25+阅读 · 2021年4月2日
Google最新《机器学习对偶性》报告,48页ppt
专知会员服务
35+阅读 · 2020年11月29日
最新《自动微分》综述教程,71页ppt
专知会员服务
21+阅读 · 2020年11月22日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
专知会员服务
61+阅读 · 2020年3月4日
【推荐系统/计算广告/机器学习/CTR预估资料汇总】
专知会员服务
87+阅读 · 2019年10月21日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
LeetCode的C++ 11/Python3 题解及解释
专知
16+阅读 · 2019年4月13日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
雪球
6+阅读 · 2018年8月19日
三味Capsule:矩阵Capsule与EM路由
PaperWeekly
10+阅读 · 2018年3月2日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
EM算法是炼金术吗?
新智元
6+阅读 · 2017年12月22日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Spark机器学习:矩阵及推荐算法
LibRec智能推荐
16+阅读 · 2017年8月3日
Arxiv
0+阅读 · 2021年7月5日
Arxiv
0+阅读 · 2021年7月3日
Arxiv
0+阅读 · 2021年7月2日
VIP会员
相关VIP内容
专知会员服务
41+阅读 · 2021年4月2日
专知会员服务
25+阅读 · 2021年4月2日
Google最新《机器学习对偶性》报告,48页ppt
专知会员服务
35+阅读 · 2020年11月29日
最新《自动微分》综述教程,71页ppt
专知会员服务
21+阅读 · 2020年11月22日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
专知会员服务
61+阅读 · 2020年3月4日
【推荐系统/计算广告/机器学习/CTR预估资料汇总】
专知会员服务
87+阅读 · 2019年10月21日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
相关资讯
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
LeetCode的C++ 11/Python3 题解及解释
专知
16+阅读 · 2019年4月13日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
雪球
6+阅读 · 2018年8月19日
三味Capsule:矩阵Capsule与EM路由
PaperWeekly
10+阅读 · 2018年3月2日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
EM算法是炼金术吗?
新智元
6+阅读 · 2017年12月22日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Spark机器学习:矩阵及推荐算法
LibRec智能推荐
16+阅读 · 2017年8月3日
Top
微信扫码咨询专知VIP会员