Transformers 在多种任务上取得了进展,但却受到二次元计算和内存复杂性的困扰。最近的工作提出了稀疏Transformers,关注稀疏图,以降低复杂性和保持强大的性能。虽然很有效,但是对于图需要多密集才能很好地执行的关键部分,还没有进行充分的探讨。在本文中,我们提出了归一化信息有效载荷(NIP),这是一种测量图上信息传递的图评分函数,它提供了一个在性能和复杂性之间进行权衡的分析工具。在理论分析的指导下,我们提出了超立方Transformers,一个稀疏的Transformer,它在超立方体中建模标记交互,并显示与普通Transformer相当甚至更好的结果,同时在序列长度为N的情况下产生O(N log N)复杂度。在需要不同序列长度的任务上的实验为我们的图函数提供了验证。

https://www.zhuanzhi.ai/paper/8318e8175a50804b8f5157bbd8679a00

成为VIP会员查看完整内容
17

相关内容

【ICML2022】Orchestra: 通过全局一致聚类的无监督联邦学习
专知会员服务
16+阅读 · 2022年5月27日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
21+阅读 · 2021年8月26日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
50+阅读 · 2021年5月19日
专知会员服务
81+阅读 · 2021年5月10日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年7月15日
Scoring Aave Accounts for Creditworthiness
Arxiv
0+阅读 · 2022年7月14日
Arxiv
31+阅读 · 2020年9月21日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
【ICML2022】Orchestra: 通过全局一致聚类的无监督联邦学习
专知会员服务
16+阅读 · 2022年5月27日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
21+阅读 · 2021年8月26日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
50+阅读 · 2021年5月19日
专知会员服务
81+阅读 · 2021年5月10日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年7月15日
Scoring Aave Accounts for Creditworthiness
Arxiv
0+阅读 · 2022年7月14日
Arxiv
31+阅读 · 2020年9月21日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
10+阅读 · 2017年7月4日
微信扫码咨询专知VIP会员