Vizing's theorem states that any $n$-vertex $m$-edge graph of maximum degree $\Delta$ can be edge colored using at most $\Delta + 1$ different colors [Vizing, 1964]. Vizing's original proof is algorithmic and shows that such an edge coloring can be found in $O(mn)$ time. This was subsequently improved to $\tilde O(m\sqrt{n})$ time, independently by [Arjomandi, 1982] and by [Gabow et al., 1985]. Very recently, independently and concurrently, using randomization, this runtime bound was further improved to $\tilde{O}(n^2)$ by [Assadi, 2024] and $\tilde O(mn^{1/3})$ by [Bhattacharya, Carmon, Costa, Solomon and Zhang, 2024] (and subsequently to $\tilde O(mn^{1/4})$ time by [Bhattacharya, Costa, Solomon and Zhang, 2024]). In this paper, we present a randomized algorithm that computes a $(\Delta+1)$-edge coloring in near-linear time -- in fact, only $O(m\log{\Delta})$ time -- with high probability, giving a near-optimal algorithm for this fundamental problem.


翻译:Vizing定理指出,任何具有$n$个顶点、$m$条边且最大度为$\Delta$的图,最多可使用$\Delta + 1$种不同颜色进行边着色[Vizing, 1964]。Vizing的原始证明是构造性的,并表明这样的边着色可以在$O(mn)$时间内找到。随后,[Arjomandi, 1982]和[Gabow等人, 1985]分别独立地将时间复杂度改进至$\tilde O(m\sqrt{n})$。最近,通过随机化方法,[Assadi, 2024]与[Bhattacharya, Carmon, Costa, Solomon和Zhang, 2024]分别独立且同时地进一步改进了运行时间上界,分别达到$\tilde{O}(n^2)$和$\tilde O(mn^{1/3})$(随后[Bhattacharya, Costa, Solomon和Zhang, 2024]又将其提升至$\tilde O(mn^{1/4})$时间)。在本文中,我们提出一种随机算法,能以高概率在近似线性时间内——实际上仅需$O(m\log{\Delta})$时间——计算出$(\Delta+1)$边着色,从而为这一基础问题提供了一个近似最优的算法。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
10+阅读 · 2023年8月13日
Arxiv
17+阅读 · 2021年7月18日
UNITER: Learning UNiversal Image-TExt Representations
Arxiv
23+阅读 · 2019年9月25日
Arxiv
15+阅读 · 2019年3月16日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关论文
Arxiv
10+阅读 · 2023年8月13日
Arxiv
17+阅读 · 2021年7月18日
UNITER: Learning UNiversal Image-TExt Representations
Arxiv
23+阅读 · 2019年9月25日
Arxiv
15+阅读 · 2019年3月16日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员