In this paper, we propose to study the following maximum ordinal consensus problem: Suppose we are given a metric system (M, X), which contains k metrics M = {\rho_1,..., \rho_k} defined on the same point set X. We aim to find a maximum subset X' of X such that all metrics in M are "consistent" when restricted on the subset X'. In particular, our definition of consistency will rely only on the ordering between pairwise distances, and thus we call a "consistent" subset an ordinal consensus of X w.r.t. M. We will introduce two concepts of "consistency" in the ordinal sense: a strong one and a weak one. Specifically, a subset X' is strongly consistent means that the ordering of their pairwise distances is the same under each of the input metric \rho_i from M. The weak consistency, on the other hand, relaxes this exact ordering condition, and intuitively allows us to take the plurality of ordering relation between two pairwise distances. We show in this paper that the maximum consensus problems over both the strong and the weak consistency notions are NP-complete, even when there are only 2 or 3 simple metrics, such as line metrics and ultrametrics. We also develop constant-factor approximation algorithms for the dual version, the minimum inconsistent subset problem of a metric system (M, P), - note that optimizing these two dual problems are equivalent.


翻译:在本文中,我们提议研究以下最大正统共识问题:假设我们被赋予一个测量系统(M, X),它包含在同一个点设置的X上定义的 knits M = rho_ 1,...,\rho_k}。我们的目标是找到一个最大分子X X 的最大分集,这样M中的所有度量在限制子X时“一致”是相同的。特别是,我们对于一致性的定义将仅依赖于对等距离之间的排序,因此我们称之为X w.r.t.M.的“恒定”子分级共识。我们将引入两个在交点意义上的“恒定”概念:一个强,一个弱。具体地说,一个子X“强烈一致”意味着它们之间的对称距离的排序在限制子X的每个输入度标准\rho_i 下都是相同的。 特别是,我们对于这种准确的准确性条件条件,我们直截面地说,让我们能够从两个对齐距离之间进行排序的组合。我们在本文件中显示,最弱的共识是2个准的底线上,我们只有最弱的精确的系统,也就是的比值是最差的。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
58+阅读 · 2019年11月10日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
155+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
8+阅读 · 2018年2月23日
VIP会员
相关VIP内容
专知会员服务
51+阅读 · 2020年12月14日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
58+阅读 · 2019年11月10日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
155+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员