Matrix decompositions are ubiquitous in machine learning, including applications in dimensionality reduction, data compression and deep learning algorithms. Typical solutions for matrix decompositions have polynomial complexity which significantly increases their computational cost and time. In this work, we leverage efficient processing operations that can be run in parallel on modern Graphical Processing Units (GPUs), predominant computing architecture used e.g. in deep learning, to reduce the computational burden of computing matrix decompositions. More specifically, we reformulate the randomized decomposition problem to incorporate fast matrix multiplication operations (BLAS-3) as building blocks. We show that this formulation, combined with fast random number generators, allows to fully exploit the potential of parallel processing implemented in GPUs. Our extensive evaluation confirms the superiority of this approach over the competing methods and we release the results of this research as a part of the official CUDA implementation (https://docs.nvidia.com/cuda/cusolver/index.html).


翻译:矩阵分解在机器学习中无处不在,其中包括在维度减低、数据压缩和深层学习算法方面的应用。矩阵分解的典型解决方案具有多元复杂性,大大增加了它们的计算成本和时间。在这项工作中,我们利用高效的处理操作,在现代图形处理器(GPUs)上平行运行,这是主要计算机结构,例如用于深层学习,以减少计算矩阵分解的计算负担。更具体地说,我们重新配置随机拆解问题,将快速矩阵增殖操作(BLAS-3)作为建筑块。我们表明,这种配方加上快速随机生成器,能够充分利用在GPUs实施的平行处理的潜力。我们的广泛评价证实,这一方法优于相互竞争的方法,我们公布这一研究成果,作为正式实施CUDA(https://docs.nvidia.com/cuda/cusolver/index.html)的一部分。

0
下载
关闭预览

相关内容

奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解,奇异值分解则是特征分解在任意矩阵上的推广。在信号处理、统计学等领域有重要应用。
FPGA加速深度学习综述
专知会员服务
66+阅读 · 2021年11月13日
深度神经网络模型压缩与加速综述
专知会员服务
126+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
13+阅读 · 2019年5月15日
硬件加速神经网络综述
计算机研究与发展
24+阅读 · 2019年2月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
前端高性能计算(4):GPU加速计算
前端大全
7+阅读 · 2017年10月26日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
13+阅读 · 2019年5月15日
硬件加速神经网络综述
计算机研究与发展
24+阅读 · 2019年2月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
前端高性能计算(4):GPU加速计算
前端大全
7+阅读 · 2017年10月26日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Top
微信扫码咨询专知VIP会员