The task of approximating an arbitrary convex function arises in several learning problems such as convex regression, learning with a difference of convex (DC) functions, and approximating Bregman divergences. In this paper, we show how a broad class of convex function learning problems can be solved via a 2-block ADMM approach, where updates for each block can be computed in closed form. For the task of convex Lipschitz regression, we establish that our proposed algorithm converges at the rate of $O(n^3 d^{1.5}+n^2 d^{2.5}+n d^3)$ for a dataset $X \in R^{n\times d}$. This new rate improves the state of the art $O(n^5d^2$) available by interior point methods if $d = o( n^4)$. Further we provide similar solvers for DC regression and Bregman divergence learning. Unlike previous approaches, our method is amenable to the use of GPUs. We demonstrate on regression and metric learning experiments that our approach is up to 20 times faster than the existing method, and produces results that are comparable to state-of-the-art.
翻译:匹配任意 convex 函数的任务产生于若干学习问题, 如 convex 回归, 学习 convex (DC) 函数的差异, 以及相似的 Bregman 差异。 在本文中, 我们展示了如何通过双块的 ADMM 方法解决广泛的 convex 函数学习问题类别, 其中每个区块的更新可以以封闭的形式计算。 关于 convex Lipschitz 回归的任务, 我们确定, 我们提议的算法会以美元( n) (n) 3 d ⁇ 1.5 ⁇ n ⁇ 2 d ⁇ 2.5 ⁇ n d ⁇ 3) 的速率趋同, 用于一个数据集 $X \ in R ⁇ n\ times d} 。 这个新率可以改善以内部点方法提供的 $O (n) 5d ⁇ 2$ 的状态, 如果$ = o ( n ⁇ 4) 。 我们为DC 回归和 Bregman 差异学习提供类似的解算器。 。 与以前的方法不同, 我们的方法可以适用于 GPUs 的使用 。 我们的回归和度学习实验显示我们的方法可以比现有方法更快20倍。 我们的比较。