We consider the problem of estimating a low-rank matrix from a noisy observed matrix. Previous work has shown that the optimal method depends crucially on the choice of loss function. In this paper, we use a family of weighted loss functions, which arise naturally for problems such as submatrix denoising, denoising with heteroscedastic noise, and denoising with missing data. However, weighted loss functions are challenging to analyze because they are not orthogonally-invariant. We derive optimal spectral denoisers for these weighted loss functions. By combining different weights, we then use these optimal denoisers to construct a new denoiser that exploits heterogeneity in the signal matrix to boost estimation with unweighted loss.


翻译:我们考虑从噪音观察的矩阵中估算低位矩阵的问题。 先前的工作表明, 最佳方法主要取决于损失功能的选择。 在本文中, 我们使用一组加权损失功能, 这些问题自然产生, 比如子矩阵分解、 与杂交性噪音分解、 与缺漏数据分解, 但是, 加权损失功能很难分析, 因为它们不是 orthoon- involution 。 我们为这些加权损失函数获得最佳的光谱储量器 。 通过将不同重量组合, 我们然后使用这些最佳的隐居器来构建一个新的脱色器, 利用信号矩阵中的异质性来增加非加权损失的估计 。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年5月21日
【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning
专知会员服务
40+阅读 · 2020年3月25日
专知会员服务
42+阅读 · 2020年2月20日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
已删除
将门创投
8+阅读 · 2019年7月10日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年5月30日
VIP会员
Top
微信扫码咨询专知VIP会员