We provide the first coreset for clustering points in $\mathbb{R}^d$ that have multiple missing values (coordinates). Previous coreset constructions only allow one missing coordinate. The challenge in this setting is that objective functions, like $k$-Means, are evaluated only on the set of available (non-missing) coordinates, which varies across points. Recall that an $\epsilon$-coreset of a large dataset is a small proxy, usually a reweighted subset of points, that $(1+\epsilon)$-approximates the clustering objective for every possible center set. Our coresets for $k$-Means and $k$-Median clustering have size $(jk)^{O(\min(j,k))} (\epsilon^{-1} d \log n)^2$, where $n$ is the number of data points, $d$ is the dimension and $j$ is the maximum number of missing coordinates for each data point. We further design an algorithm to construct these coresets in near-linear time, and consequently improve a recent quadratic-time PTAS for $k$-Means with missing values [Eiben et al., SODA 2021] to near-linear time. We validate our coreset construction, which is based on importance sampling and is easy to implement, on various real data sets. Our coreset exhibits a flexible tradeoff between coreset size and accuracy, and generally outperforms the uniform-sampling baseline. Furthermore, it significantly speeds up a Lloyd's-style heuristic for $k$-Means with missing values.


翻译:我们为多个缺失值( 坐标) 的分组点提供第一个核心设置 $mathbb{R ⁇ d$ 。 以前的核心设置只允许一个缺失的坐标 。 在此设置的挑战是, 目标函数, 如$k$- Means, 仅在可用( 不丢失) 坐标组( 不同点) 上进行评估 。 回顾一个大数据集的 $\ epsilon$- 核心数据集是一个小代用单位, 通常是一个重标子子子组, 即$( 1 ⁇ epsilon) 接近每个可能的中心集组的分组目标 。 我们进一步设计一个算法, 在接近直线时间( $- Means) 和 $konk- Median 群集中, 大小为$( jk) O( min( j, j, k)) ) (\\\\\\ log_ 1) ) 核心值( ) ) 。 美元是数据点数, 的维度和 美元是每个数据中点的最大缩缩 。 我们进一步设计一个在接近直线时间( 美元 时间( 美元) ) 和 直线( 直径) 基) 基值( ) 度( ) 基) 基值( ) 基) 度( ) 度( ) ) 基) 度( ) 度( ) 基) 基) 基) 度( 基) 基) 度( 基) 基) 度( 度( 度( ) 度( ) ) ) 度( ) 基值( ) ) ) 基值( ) ) ) 基值( ) ) ) ) ) ) 值( ) ) ) 值( 值( ) ) ) 和基值(S- 基值( 基值( 基值( ) ) ) ) ) ) ) ) 度(S- ) ) 基值( ) ) ) 和基值( ) ) 基值( 和基值) 基)

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月13日
机器学习组合优化
专知会员服务
108+阅读 · 2021年2月16日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2020年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
OnlineSTL: Scaling Time Series Decomposition by 100x
Imitation by Predicting Observations
Arxiv
4+阅读 · 2021年7月8日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
7+阅读 · 2020年8月7日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员