成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
谷歌联手DeepMind提出Performer:用新方式重新思考注意力机制
2020 年 10 月 26 日
新智元
新智元报道
编辑:QJP
【新智元导读】
谷歌、 DeepMind、艾伦图灵研究院和剑桥大学的科学家们提出了「Performer」,一种线性扩展的人工智能模型架构,并在蛋白质序列建模等任务中表现良好。它有潜力影响生物序列分析的研究,降低计算成本和计算复杂性,同时减少能源消耗和碳排放。
Transformer 模型在很多不同的领域都取得了SOTA,包括自然语言,对话,图像,甚至音乐。每个 Transformer 体系结构的核心模块是 Attention 模块,它为一个输入序列中的所有位置对计算相似度score。
然而,这种方法在输入序列的长度较长时效果不佳,需要计算时间呈平方增长来产生所有相似性得分,以及存储空间的平方增长来构造一个矩阵存储这些score。
对于需要长距离注意力的应用,目前已经提出了几种快速且更节省空间的方法,如内存缓存技术,但是一种更常见的方法是依赖于稀疏注意力。
稀疏注意力机制通过从一个序列而不是所有可能的Pair中计算经过选择的相似性得分来减少注意机制的计算时间和内存需求,从而产生一个稀疏矩阵而不是一个完整的矩阵。
这些稀疏条目可以通过优化的方法找到、学习,甚至随机化,如Sparse Transformers、Longformers、RoutingTransformers、Reformers和BigBird。
由于稀疏矩阵也可以用图形和边来表示,稀疏化方法也受到图神经网络文献的推动,在图注意网络中列出了与注意力的具体关系。这种基于稀疏性的体系结构通常需要额外的层来隐式地产生完全的注意力机制。
不幸的是,稀疏注意力的方法仍然会受到一些限制,如:
(1)需要高效的稀疏矩阵乘法运算,但并非所有加速器都能使用;
(2)通常不能为其表示能力提供严格的理论保证;
(3)主要针对 Transformer 模型和生成式预训练进行优化;
(4)它们通常堆叠更多的注意力层以补偿稀疏表示,使其难以与其他预训练模型一起使用,因此需要重新训练和显著的内存消耗。
除了这些缺点,稀疏注意力机制往往仍然不足以解决所有的正常注意力机制的问题,如指针网络(Pointer Network)。同时也存在一些不能稀疏化的操作,比如常用的softmax操作,它使注意机制中的相似度得分归一化,在工业规模的推荐系统中得到了广泛的应用。
为了解决这些问题,Google AI的研究人员引入了「Performer」,这是一个具有注意力线性扩展机制的Transformer架构,可以使模型在处理更长序列的同时实现更快的训练,这是对于特定的图像数据集如 ImageNet64和文本数据集如 PG-19所必需的。
Performer使用了一个有效的(线性的)广义注意力框架,它是一种允许基于不同的相似性度量(Kernel)的注意力机制。
广义注意力机制
在原有的注意力机制中,query和key分别对应于矩阵的行和列,再进行相乘并通过softmax形成一个注意力矩阵,并存储下来相似性score。
请注意,在这种方法中,不能将query-key传递到非线性 softmax 操作之后再将其分解回原来的key和query,但是可以将注意力矩阵分解为原始query和key的随机非线性函数的乘积,也就是所谓的随机特征(random features),这样就可以更有效地对相似性信息进行编码。
FAVOR+: Fast Attention via Matrix Associativity
上面描述的那种矩阵分解,使得可以使用线性而不是二次的复杂度来存储隐式注意力矩阵,同时也可以通过这种分解得到一个线性时间的注意力机制。
原有的注意力机制是将注意力矩阵乘以输入的value值来得到最终结果,而注意力矩阵分解后,可以重新排列矩阵乘法来逼近常规注意机制的结果,而无需显式构造二次的注意力矩阵。
上述分析与所谓的双向注意力有关,即没有过去和未来概念的「非因果注意力」。
对于单向(因果)注意力,即Mask掉不参与输入序列后面计算的其他token,只使用前面的token参与计算,只存储运行矩阵计算的结果,而不是存储一个显式的下三角注意力矩阵。
性能
我们首先对Performer的空间和时间复杂度进行基准测试,结果表明,注意力加速和内存减少几乎是最优的,也就是说,结果非常接近于在模型中根本不使用注意力机制。
研究人员又进一步展示了 Performer,使用无偏 softmax 逼近,向后兼容经过一点微调的预训练Transformer模型,可以通过提高推断速度降低成本,而不需要完全重新训练已有的模型。
案例:蛋白质序列建模
蛋白质是具有复杂三维结构和特定功能的大分子,对生命来说至关重要。与单词一样,蛋白质被指定为线性序列,其中每个字符是20个氨基酸构建块中的一个。
将 Transformers 应用于大型未标记的蛋白质序列产生的模型可用于对折叠的功能性大分子进行准确的预测。
Performer-ReLU (使用基于 relu 的注意力,这是一个不同于 softmax 的广义注意力)在蛋白质序列数据建模方面有很强的表现,而 Performer-Softmax 与 Transformer 的性能相匹配,正如理论所预测的结果那样。
下面,我们可视化一个蛋白质Performer模型,使用基于 relu 的近似注意力机制进行训练,使用 Performer 来估计氨基酸之间的相似性,从序列比对中分析进化替换模式得到的替换矩阵中恢复类似的结构。
更一般地说,我们发现局部和全局注意力机制与用蛋白质数据训练的Transformer模型一致。Dense Attention的近似Performer有可能捕捉跨越多个蛋白质序列的全局相互作用。
作为概念的验证,对长串联蛋白质序列进行模型训练,会使得常规 Transformer 模型的内存过载,但 Performer模型的内存不会过载,因为它的空间利用很高效。
结论
Google AI的这项工作有助于改进基于非稀疏的方法和基于Kernel的Transformer,这种方法也可以与其他技术互操作,研究人员甚至还将 FAVOR 与Reformer的代码集成在一起。同时研究人员还提供了论文、 Performer的代码和蛋白质语言模型的代码链接。
Google AI的研究人员相信,他们对于Performer的研究开辟了一种关于Attention、Transformer架构甚至Kernel的全新的思维方式,对于进一步的改进有巨大的启示作用。
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
Performer
关注
10
注意力机制综述
专知会员服务
82+阅读 · 2021年1月26日
替换Transformer!谷歌提出 Performer 模型,全面提升注意力机制!
专知会员服务
41+阅读 · 2020年10月29日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【DeepMind硬核课】深度学习注意力与记忆机制,附70页ppt与视频
专知会员服务
167+阅读 · 2020年6月25日
【ICML2020-MIT】常曲率图卷积神经网络,构建非欧几里得GCN(附论文和76页ppt)
专知会员服务
66+阅读 · 2020年6月21日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
Google AI博客解读论文《Reformer: The Efficient Transformer》,百万量级注意力机制
专知会员服务
69+阅读 · 2020年1月17日
【清华大学 博士论文】大规模结构化知识的表示学习、自动获取与计算应用,林衍凯
专知会员服务
135+阅读 · 2019年11月7日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
【论文笔记】基于自编码器的通用性文本表征
专知
7+阅读 · 2019年8月31日
参数少一半,效果还更好,天津大学和微软提出Transformer压缩模型
机器之心
15+阅读 · 2019年7月13日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
用自注意力增强卷积:这是新老两代神经网络的对话(附实现)
机器之心
18+阅读 · 2019年4月26日
OpenAI新研究补齐Transformer短板,将可预测序列长度提高30倍
机器之心
6+阅读 · 2019年4月24日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
入门 | 请注意,我们要谈谈神经网络的注意机制和使用方法
机器之心
6+阅读 · 2017年10月27日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
Automated Storytelling via Causal, Commonsense Plot Ordering
Arxiv
8+阅读 · 2020年12月30日
Rethinking Attention with Performers
Arxiv
3+阅读 · 2020年9月30日
Efficient Transformers: A Survey
Arxiv
23+阅读 · 2020年9月16日
Multi-Label Text Classification using Attention-based Graph Neural Network
Arxiv
46+阅读 · 2020年3月22日
Fast Interactive Object Annotation with Curve-GCN
Arxiv
15+阅读 · 2019年3月16日
Close to Human Quality TTS with Transformer
Arxiv
3+阅读 · 2018年11月13日
Equity of Attention: Amortizing Individual Fairness in Rankings
Arxiv
4+阅读 · 2018年5月4日
Group Normalization
Arxiv
7+阅读 · 2018年3月22日
Multimodal Named Entity Recognition for Short Social Media Posts
Arxiv
8+阅读 · 2018年2月22日
Mask R-CNN
Arxiv
7+阅读 · 2018年1月24日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
Performer
重新思考注意力
稀疏
注意力机制
序列
DeepMind
相关VIP内容
注意力机制综述
专知会员服务
82+阅读 · 2021年1月26日
替换Transformer!谷歌提出 Performer 模型,全面提升注意力机制!
专知会员服务
41+阅读 · 2020年10月29日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【DeepMind硬核课】深度学习注意力与记忆机制,附70页ppt与视频
专知会员服务
167+阅读 · 2020年6月25日
【ICML2020-MIT】常曲率图卷积神经网络,构建非欧几里得GCN(附论文和76页ppt)
专知会员服务
66+阅读 · 2020年6月21日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
Google AI博客解读论文《Reformer: The Efficient Transformer》,百万量级注意力机制
专知会员服务
69+阅读 · 2020年1月17日
【清华大学 博士论文】大规模结构化知识的表示学习、自动获取与计算应用,林衍凯
专知会员服务
135+阅读 · 2019年11月7日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
热门VIP内容
开通专知VIP会员 享更多权益服务
《人类与人工智能在规划和执行军用直升机领域人机编队协同任务中的合作:概念、要求、设计、验证》220页
《人类-自主性编队协同: 是否需要一个基于团队的指导性框架?》
驾驭人机协同作战团队
《有人无人协同作战:F-35 如何支持地面战斗部队 (GCE) 》
相关资讯
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
【论文笔记】基于自编码器的通用性文本表征
专知
7+阅读 · 2019年8月31日
参数少一半,效果还更好,天津大学和微软提出Transformer压缩模型
机器之心
15+阅读 · 2019年7月13日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
用自注意力增强卷积:这是新老两代神经网络的对话(附实现)
机器之心
18+阅读 · 2019年4月26日
OpenAI新研究补齐Transformer短板,将可预测序列长度提高30倍
机器之心
6+阅读 · 2019年4月24日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
入门 | 请注意,我们要谈谈神经网络的注意机制和使用方法
机器之心
6+阅读 · 2017年10月27日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
相关论文
Automated Storytelling via Causal, Commonsense Plot Ordering
Arxiv
8+阅读 · 2020年12月30日
Rethinking Attention with Performers
Arxiv
3+阅读 · 2020年9月30日
Efficient Transformers: A Survey
Arxiv
23+阅读 · 2020年9月16日
Multi-Label Text Classification using Attention-based Graph Neural Network
Arxiv
46+阅读 · 2020年3月22日
Fast Interactive Object Annotation with Curve-GCN
Arxiv
15+阅读 · 2019年3月16日
Close to Human Quality TTS with Transformer
Arxiv
3+阅读 · 2018年11月13日
Equity of Attention: Amortizing Individual Fairness in Rankings
Arxiv
4+阅读 · 2018年5月4日
Group Normalization
Arxiv
7+阅读 · 2018年3月22日
Multimodal Named Entity Recognition for Short Social Media Posts
Arxiv
8+阅读 · 2018年2月22日
Mask R-CNN
Arxiv
7+阅读 · 2018年1月24日
大家都在搜
PRML
MoE
大型语言模型
无人机蜂群
空战战术
RE-NET
汽车智能化
大模型
壁画
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top