矩阵乘法是机器学习中最基础和计算密集型的操作之一。因此,研究社区在高效逼近矩阵乘法方面已经做了大量工作,比如实现高速矩阵乘法库、设计自定义硬件加速特定矩阵的乘法运算、计算分布式矩阵乘法以及在各种假设下设计高效逼近矩阵乘法(AMM)等。

https://www.zhuanzhi.ai/paper/a8cdb9077dd53db5482133876cadf477

在 MIT 计算机科学博士生 Davis Blalock 及其导师 John Guttag 教授发表的论文《 Multiplying Matrices Without Multiplying 》中,他们为逼近矩阵乘法任务引入了一种基于学习的算法,结果显示该算法显著优于现有方法。在来自不同领域的数百个矩阵的实验中,这种学习算法的运行速度是精确矩阵乘积的 100 倍,是当前近似方法的 10 倍。这篇论文入选了机器学习顶会 ICML 2021。

此外,在一个矩阵提前已知的常见情况下,研究者提出的方法还具有一个有趣的特性——需要的乘加运算(multiply-adds)为零。

这些结果表明,相较于最近重点进行了大量研究与硬件投入的稀疏化、因式分解和 / 或标量量化矩阵乘积而言,研究者所提方法中的核心操作——哈希、求平均值和 byte shuffling 结合可能是更有前途的机器学习构建块。

成为VIP会员查看完整内容
21

相关内容

专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
6+阅读 · 2021年9月20日
专知会员服务
22+阅读 · 2021年9月5日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
30+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
11+阅读 · 2021年6月20日
专知会员服务
10+阅读 · 2021年2月4日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
TensorFlow 模型优化工具包 — 训练时量化
TensorFlow
7+阅读 · 2020年4月15日
神经网络推理加速之模型量化
ApacheMXNet
8+阅读 · 2019年7月8日
ICML 2019 | 第四范式提出快速张量补全新方法
PaperWeekly
4+阅读 · 2019年6月19日
CVPR 2019 | 一个高阶张量搞定整个全卷积网络
机器之心
9+阅读 · 2019年5月12日
博客 | MIT—线性代数(下)
AI研习社
6+阅读 · 2018年12月20日
Arxiv
0+阅读 · 2021年10月15日
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
Angular-Based Word Meta-Embedding Learning
Arxiv
3+阅读 · 2018年8月13日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
6+阅读 · 2021年9月20日
专知会员服务
22+阅读 · 2021年9月5日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
30+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
11+阅读 · 2021年6月20日
专知会员服务
10+阅读 · 2021年2月4日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
相关资讯
微信扫码咨询专知VIP会员