We design a new sparse projection method for a set of vectors that guarantees a desired average sparsity level measured leveraging the popular Hoyer measure (an affine function of the ratio of the $\ell_1$ and $\ell_2$ norms). Existing approaches either project each vector individually or require the use of a regularization parameter which implicitly maps to the average $\ell_0$-measure of sparsity. Instead, in our approach we set the sparsity level for the whole set explicitly and simultaneously project a group of vectors with the sparsity level of each vector tuned automatically. We show that the computational complexity of our projection operator is linear in the size of the problem. Additionally, we propose a generalization of this projection by replacing the $\ell_1$ norm by its weighted version. We showcase the efficacy of our approach in both supervised and unsupervised learning tasks on image datasets including CIFAR10 and ImageNet. In deep neural network pruning, the sparse models produced by our method on ResNet50 have significantly higher accuracies at corresponding sparsity values compared to existing competitors. In nonnegative matrix factorization, our approach yields competitive reconstruction errors against state-of-the-art algorithms.


翻译:我们设计了一种针对向量集的新型稀疏投影方法,该方法能保证达到由常用Hoyer度量(即ℓ₁范数与ℓ₂范数比值的仿射函数)衡量的期望平均稀疏度水平。现有方法要么对每个向量单独进行投影,要么需要借助正则化参数来隐式映射到平均ℓ₀稀疏度度量。与之相反,我们的方法显式设定整个向量集的稀疏度水平,并同时对向量组进行投影,其中每个向量的稀疏度水平会自动调节。我们证明了该投影算子的计算复杂度与问题规模呈线性关系。此外,我们通过用加权ℓ₁范数替代原始ℓ₁范数,提出了该投影方法的广义形式。我们在CIFAR10和ImageNet等图像数据集上的监督与非监督学习任务中验证了本方法的有效性。在深度神经网络剪枝方面,本方法在ResNet50上生成的稀疏模型在相同稀疏度条件下,其准确率显著优于现有竞争方法。在非负矩阵分解任务中,本方法获得的复原误差与最先进算法相比具有竞争力。

0
下载
关闭预览

相关内容

【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
【NeurIPS2022】黎曼扩散模型
专知会员服务
42+阅读 · 2022年9月15日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员