Lightness is a fundamental parameter for Euclidean spanners; it is the ratio of the spanner weight to the weight of the minimum spanning tree of a finite set of points in $\mathbb{R}^d$. In a recent breakthrough, Le and Solomon (2019) established the precise dependencies on $\varepsilon>0$ and $d\in \mathbb{N}$ of the minimum lightness of an $(1+\varepsilon)$-spanner, and observed that additional Steiner points can substantially improve the lightness. Le and Solomon (2020) constructed Steiner $(1+\varepsilon)$-spanners of lightness $O(\varepsilon^{-1}\log\Delta)$ in the plane, where $\Delta\in \Omega(\log n)$ is the \emph{spread} of the point set, defined as the ratio between the maximum and minimum distance between a pair of points. They also constructed spanners of lightness $\tilde{O}(\varepsilon^{-(d+1)/2})$ in dimensions $d\geq 3$. Recently, Bhore and T\'{o}th (2020) established a lower bound of $\Omega(\varepsilon^{-d/2})$ for the lightness of Steiner $(1+\varepsilon)$-spanners in $\mathbb{R}^d$, for $d\ge 2$. The central open problem in this area is to close the gap between the lower and upper bounds in all dimensions $d\geq 2$. In this work, we show that for every finite set of points in the plane and every $\varepsilon>0$, there exists a Euclidean Steiner $(1+\varepsilon)$-spanner of lightness $O(\varepsilon^{-1})$; this matches the lower bound for $d=2$. We generalize the notion of shallow light trees, which may be of independent interest, and use directional spanners and a modified window partitioning scheme to achieve a tight weight analysis.


翻译:亮度是 Euclidean spanner 的基本参数; 亮度是 $ (1 ⁇ varepsilon) 的平面; 亮度是 $( 1 ⁇ varebb{ R ⁇ d$) 的最小亮度; 亮度是 美元( 1 ⁇ varepsilan) 的平面; 亮度是 美元( 1 ⁇ varepilon) 的平面; 亮度是 美元( 0>) 的平面; 亮度是 $( 1 ⁇ varepreal) 的最小亮度, 亮度是 美元( varelsion) 的亮度 $( 1 ⁇ varepsil) 的亮度 ; 亮度是 美元( 美元) 亮度 的亮度是 美元( 美元) 的亮度, 亮度是 美元( 美元) 亮度 的亮度是 的亮度 。

0
下载
关闭预览

相关内容

【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
专知会员服务
159+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年2月5日
Arxiv
0+阅读 · 2021年2月4日
Arxiv
0+阅读 · 2021年2月4日
Arxiv
0+阅读 · 2021年2月4日
Arxiv
0+阅读 · 2021年2月4日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员