据我们所知,在本文中,我们提供了第一个全面的方法,以可扩展的方式将各种掩码机制整合到transformer架构中。我们表明,线性因果注意力(Choromanski et al., 2021)和对数线性RPE -注意力(Luo et al., 2021)的最新结果是这种一般机制的特殊情况。然而,通过将问题转化为未被掩盖的注意力的拓扑(基于图的)调制,我们获得了一些未知的结果,包括有效的d维RPE-掩码和图核掩码。我们利用了许多数学技术,从光谱分析、动态规划和随机漫步到解决图上马尔可夫过程的新算法。我们给出了相应的实证评价。 https://www.zhuanzhi.ai/paper/3183b33e9b7618679826d3ed338c41d8

成为VIP会员查看完整内容
17

相关内容

【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知会员服务
32+阅读 · 2022年7月27日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
44+阅读 · 2021年9月27日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
30+阅读 · 2021年6月24日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
28+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
36+阅读 · 2021年5月15日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
无需训练,自动扩展的视觉Transformer来了
机器之心
0+阅读 · 2022年4月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
25+阅读 · 2018年8月19日
VIP会员
相关VIP内容
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知会员服务
32+阅读 · 2022年7月27日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
44+阅读 · 2021年9月27日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
30+阅读 · 2021年6月24日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
28+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
36+阅读 · 2021年5月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员