Many machine learning problems can be reduced to learning a low-rank positive semidefinite matrix (denoted as $Z$), which encounters semidefinite program (SDP). Existing SDP solvers are often expensive for large-scale learning. To avoid directly solving SDP, some works convert SDP into a nonconvex program by factorizing $Z$ \textit{quadraticly} as $XX^\top$. However, this would bring higher-order nonlinearity, resulting in scarcity of structure in subsequent optimization. In this paper, we propose a novel surrogate for SDP learning, in which the structure of subproblem is exploited. More specifically, we surrogate unconstrained SDP by a biconvex problem, through factorizing $Z$ \textit{bilinearly} as $XY^\top$ and using a Courant penalty to penalize the difference of $X$ and $Y$, in which the resultant subproblems in terms of $X$ and $Y$ are convex respectively. Furthermore, we provide a theoretical bound for the associated penalty parameter under the assumption that the subobjective function of $X$ or $Y$ is $L$-Lipschitz-smooth and $\sigma$-strongly convex, such that the proposed surrogate will solve the original SDP when the penalty parameter is larger than this bound (that is $\gamma>\frac{1}{4}(L-\sigma)$). Experiments on two SDP-related applications demonstrate that the proposed algorithm is as accurate as the state-of-the-art, but is faster on large-scale learning.


翻译:许多机器学习问题可以降低到学习一个低价正正正半确定基基基基基(Z$,称为Z$美元)的半确定性基底矩阵(称为Z$美元 ) 。 在本文中,我们提出一个新的 SDP 学习应用的新替代工具,其中利用了亚质变 。 更具体地说,我们通过将美元作为美元乘以X元和美元乘以美元,将SDP转换成一个非convex程序,将SDP转换成一个非Convex方案,将美元作为美元(textit{quatraly 美元)的系数,将SDP作为美元和美元乘以美元之间的差额,从而带来更高的非线性非线性。然而,在本文中,我们提议为SDP学习的美元和美元(美元)的原始分解是相同的。此外,我们通过双convexx问题问题,将未获得对 SDP 的大型 SDP 问题进行不宽容的 SDP 的 SDP,而拟议的SUrant 和 5 的 美元 的罚款是拟议的,因此,我们为S- 。

0
下载
关闭预览

相关内容

专知会员服务
76+阅读 · 2021年3月16日
专知会员服务
50+阅读 · 2020年12月14日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
40+阅读 · 2020年11月22日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
60+阅读 · 2020年3月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员