In low distortion metric embeddings, the goal is to embed a host "hard" metric space into a "simpler" target space while approximately preserving pairwise distances. A highly desirable target space is that of a tree metric. Unfortunately, such embedding will result in a huge distortion. A celebrated bypass to this problem is stochastic embedding with logarithmic expected distortion. Another bypass is Ramsey-type embedding, where the distortion guarantee applies only to a subset of the points. However, both these solutions fail to provide an embedding into a single tree with a worst-case distortion guarantee on all pairs. In this paper, we propose a novel third bypass called \emph{clan embedding}. Here each point $x$ is mapped to a subset of points $f(x)$, called a \emph{clan}, with a special \emph{chief} point $\chi(x)\in f(x)$. The clan embedding has multiplicative distortion $t$ if for every pair $(x,y)$ some copy $y'\in f(y)$ in the clan of $y$ is close to the chief of $x$: $\min_{y'\in f(y)}d(y',\chi(x))\le t\cdot d(x,y)$. Our first result is a clan embedding into a tree with multiplicative distortion $O(\frac{\log n}{\epsilon})$ such that each point has $1+\epsilon$ copies (in expectation). In addition, we provide a "spanning" version of this theorem for graphs and use it to devise the first compact routing scheme with constant size routing tables. We then focus on minor-free graphs of diameter prameterized by $D$, which were known to be stochastically embeddable into bounded treewidth graphs with expected additive distortion $\epsilon D$. We devise Ramsey-type embedding and clan embedding analogs of the stochastic embedding. We use these embeddings to construct the first (bicriteria quasi-polynomial time) approximation scheme for the metric $\rho$-dominating set and metric $\rho$-independent set problems in minor-free graphs.


翻译:在低扭曲度嵌入中, 目标是将主机“ 硬性” 度空间嵌入一个“ 简化” 目标空间, 并大致保存对称距离。 一个非常理想的目标空间是树度。 不幸的是, 这种嵌入将会导致巨大的扭曲。 这个问题的一个值得庆祝的绕路是随机嵌入对数预期扭曲。 另一个绕路是 拉姆西型嵌入, 扭曲保证仅适用于其中的一个子点。 但是, 这两种解决方案都无法提供将主机“ 硬性” 的“ 硬性” 度空间嵌入一个“ 简化” 目标空间。 在本文中, 我们提议一个叫“ 硬性” 硬性“硬性” 硬性“硬性“硬性” 硬性“硬性“ 硬性“ 硬性“硬性” 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性地“ 硬性地“ 硬性“, 硬性“ 硬性“ 硬性“, 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“, 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“, 硬性“ 硬性“ 硬性“,, 硬性“ 硬性“, 硬性“, 硬性“, 硬性“, 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性“ 硬性地,,,, 硬性“ 硬性“ 硬性“ 硬性“, 硬性“, 硬性“ 硬性“ 硬性“ 硬性

0
下载
关闭预览

相关内容

最新《图理论》笔记书,98页pdf
专知会员服务
74+阅读 · 2020年12月27日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
273+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Arxiv
0+阅读 · 2021年6月7日
Arxiv
0+阅读 · 2021年6月4日
Arxiv
0+阅读 · 2021年6月3日
Arxiv
4+阅读 · 2019年2月8日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Top
微信扫码咨询专知VIP会员