In graph sparsification, the goal has almost always been of {global} nature: compress a graph into a smaller subgraph ({sparsifier}) that maintains certain features of the original graph. Algorithms can then run on the sparsifier, which in many cases leads to improvements in the overall runtime and memory. This paper studies sparsifiers that have bounded (maximum) degree, and are thus {locally} sparse, aiming to improve local measures of runtime and memory. To improve those local measures, it is important to be able to compute such sparsifiers {locally}. We initiate the study of local algorithms for bounded degree sparsifiers in unweighted sparse graphs, focusing on the problems of vertex cover, matching, and independent set. Let $\epsilon > 0$ be a slack parameter and $\alpha \ge 1$ be a density parameter. We devise local algorithms for computing: (1) A $(1+\epsilon)$-vertex cover sparsifier of degree $O(\alpha / \epsilon)$, for any graph of {arboricity} $\alpha$. (2) A $(1+\epsilon)$-maximum matching sparsifier and also a $(1+\epsilon)$-maximal matching sparsifier of degree $O(\alpha / \epsilon)$, for any graph of arboricity $\alpha$. (3) A $(1+\epsilon)$-independent set sparsifier of degree $O(\alpha^2 / \epsilon)$, for any graph of average degree $\alpha$. Our algorithms require only a single communication round in the standard message passing models of distributed computing, and moreover, they can be simulated locally in a trivial way. As an immediate application we can extend results from distributed computing and local computation algorithms that apply to graphs of degree bounded by $d$ to graphs of arboricity $O(d / \epsilon)$ or average degree $O(d^2 / \epsilon)$, at the expense of increasing the approximation guarantee by a factor of $(1+\epsilon)$. In particular, we can extend the plethora of recent local computation algorithms [...]


翻译:在图形垃圾化中, 目标几乎总是 {global} 性质 : 将一个图形压缩成一个小的子集({sparsiter}}) 以保持原始图形的某些特性。 ALgorithms 可以在总运行时间和记忆量上运行, 在许多情况下, 这会导致整个运行时间和记忆度的改善。 这个纸学修饰器已经绑定( 最大) 度, 因此是 {ge} 稀少, 目的是改进运行时间和记忆的本地度度测量。 为了改进这些本地度测量, 我们必须能够将一个小的 $( comlial2) 压缩成一个小的子集成( $ 美元 ) 。 我们开始研究本地度的 美元 1 美元 的平面值, 平面 1 平面 平面 平面的 美元 。

0
下载
关闭预览

相关内容

专知会员服务
123+阅读 · 2020年9月8日
系列教程GNN-algorithms之六:《多核卷积拓扑图—TAGCN》
专知会员服务
49+阅读 · 2020年8月8日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【Java实现遗传算法】162页pdf,Genetic Algorithms in Java Basics
专知会员服务
43+阅读 · 2020年7月19日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
3+阅读 · 2014年10月9日
VIP会员
相关VIP内容
专知会员服务
123+阅读 · 2020年9月8日
系列教程GNN-algorithms之六:《多核卷积拓扑图—TAGCN》
专知会员服务
49+阅读 · 2020年8月8日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【Java实现遗传算法】162页pdf,Genetic Algorithms in Java Basics
专知会员服务
43+阅读 · 2020年7月19日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员