The task of approximating an arbitrary convex function arises in several learning problems such as convex regression, learning with a difference of convex (DC) functions, and approximating Bregman divergences. In this paper, we show how a broad class of convex function learning problems can be solved via a 2-block ADMM approach, where updates for each block can be computed in closed form. For the task of convex Lipschitz regression, we establish that our proposed algorithm converges at the rate of $O(n^3 d^{1.5}+n^2 d^{2.5}+n d^3)$ for a dataset $X \in R^{n\times d}$. This new rate improves the state of the art $O(n^5d^2$) available by interior point methods if $d = o( n^4)$. Further we provide similar solvers for DC regression and Bregman divergence learning. Unlike previous approaches, our method is amenable to the use of GPUs. We demonstrate on regression and metric learning experiments that our approach is up to 20 times faster than the existing method, and produces results that are comparable to state-of-the-art.


翻译:匹配任意 convex 函数的任务产生于若干学习问题, 如 convex 回归, 学习 convex (DC) 函数的差异, 以及相似的 Bregman 差异。 在本文中, 我们展示了如何通过双块的 ADMM 方法解决广泛的 convex 函数学习问题类别, 其中每个区块的更新可以以封闭的形式计算。 关于 convex Lipschitz 回归的任务, 我们确定, 我们提议的算法会以美元( n) (n) 3 d ⁇ 1.5 ⁇ n ⁇ 2 d ⁇ 2.5 ⁇ n d ⁇ 3) 的速率趋同, 用于一个数据集 $X \ in R ⁇ n\ times d} 。 这个新率可以改善以内部点方法提供的 $O (n) 5d ⁇ 2$ 的状态, 如果$ = o ( n ⁇ 4) 。 我们为DC 回归和 Bregman 差异学习提供类似的解算器。 。 与以前的方法不同, 我们的方法可以适用于 GPUs 的使用 。 我们的回归和度学习实验显示我们的方法可以比现有方法更快20倍。 我们的比较。

0
下载
关闭预览

相关内容

专知会员服务
35+阅读 · 2021年9月12日
专知会员服务
41+阅读 · 2021年4月2日
专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
29+阅读 · 2020年12月14日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
已删除
将门创投
4+阅读 · 2020年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年1月9日
Arxiv
4+阅读 · 2021年7月1日
Arxiv
8+阅读 · 2019年2月15日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员