【ICML2022】超立方Transformers:你需要什么样的密集图来集中自注意力?

2022 年 5 月 31 日 专知



Transformers 在多种任务上取得了进展,但却受到二次元计算和内存复杂性的困扰。最近的工作提出了稀疏Transformers,关注稀疏图,以降低复杂性和保持强大的性能。虽然很有效,但是对于图需要多密集才能很好地执行的关键部分,还没有进行充分的探讨。在本文中,我们提出了归一化信息有效载荷(NIP),这是一种测量图上信息传递的图评分函数,它提供了一个在性能和复杂性之间进行权衡的分析工具。在理论分析的指导下,我们提出了超立方Transformers,一个稀疏的Transformer,它在超立方体中建模标记交互,并显示与普通Transformer相当甚至更好的结果,同时在序列长度为N的情况下产生O(N log N)复杂度。在需要不同序列长度的任务上的实验为我们的图函数提供了验证。

https://www.zhuanzhi.ai/paper/8318e8175a50804b8f5157bbd8679a00

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“STRN” 就可以获取【ICML2022】超立方Transformers:你需要什么样的密集图来集中自注意力?》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
0

相关内容

【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
21+阅读 · 2021年5月27日
专知会员服务
81+阅读 · 2021年5月10日
【ICML2022】深入探讨置换敏感图神经网络
【WSDM2022】具有分层注意力的图嵌入
专知
0+阅读 · 2021年11月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2022年7月27日
Arxiv
35+阅读 · 2022年3月14日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
VIP会员
相关VIP内容
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
21+阅读 · 2021年5月27日
专知会员服务
81+阅读 · 2021年5月10日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员