A sketching algorithm is a way to solve an optimization problem approximately and in a fraction of the usual time. We consider classical sketching algorithms which first compress data by multiplication with a random "sketch matrix". Our work improves and extends the "learned sketch" paradigm, in which sketch matrices are optimized to yield better expected performance. This technique has only been used for a suboptimal variant of sketched low-rank decomposition (LRD). Our work extends the problem coverage to optimal sketched LRD, least-squares regression (LS), and $k$-means clustering. We improve sketch learning for all three problems and very significantly for LS and LRD: experimental performance increases by $12\%$ and $20\%$, respectively. (Interestingly, we can also prove that we get a strict improvement for LRD under certain conditions.) Finally, we design two sketching algorithm modifications that leverage the strong expected performance of learned sketches, provide worst-case performance guarantees, and have the same time complexity as classical sketching. We prove the worst-case property for each of the problems and their modified algorithms.


翻译:素描算法是大约和在通常时间的一小部分解决优化问题的一种方法。 我们考虑古典素描算法,它首先通过随机的“ 缓冲矩阵” 来压缩数据。 我们的工作改进并扩展了“ 缓冲矩阵” 模式, 使素描矩阵优化以产生更好的预期性能。 这个技术只用于草画低声分解的亚优异变体( LRD ) 。 我们的工作将问题覆盖扩大到最优化的草画LRD, 最低方位回归( LS) 和 $k$- means 群集。 我们改进了所有三个问题的素描算法学习, 特别是LS 和 LRD : 实验性能分别增加 12 $和 20 $ $ 。 ( 远方说, 我们还可以证明在某些条件下, LRD 得到严格的改进 。 最后, 我们设计了两种粗略的算法修改方法, 利用素描图的强预期性能, 提供最坏的性能保证, 和古典素描写法一样复杂。

0
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
158+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
4+阅读 · 2017年11月1日
Arxiv
0+阅读 · 2021年4月14日
A Modern Introduction to Online Learning
Arxiv
21+阅读 · 2019年12月31日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
4+阅读 · 2019年1月1日
Arxiv
14+阅读 · 2018年4月6日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
4+阅读 · 2017年11月1日
相关论文
Top
微信扫码咨询专知VIP会员