【ICML2022】基于自适应上下文池化的高效表示学习

2022 年 7 月 9 日 专知


自注意力机制利用所有输入标记之间的成对注意力对长上下文进行建模。在此过程中,他们假设单个标记(例如,文本字符或图像像素)定义了固定的注意力粒度,这对于在更高级别上建模复杂依赖关系可能不是最优的。在本文中,我们提出了ContextPool,通过调整每个标记的注意粒度来解决这个问题。受ConvNets成功结合池化来捕获远程依赖的启发,我们学会了在给定的注意力层中计算注意力之前,为每个令牌池化邻近的特性。池权和支持大小是自适应确定的,允许池特性以不同的规模编码有意义的上下文。我们表明,ContextPool使注意力模型更具表现力,通常用更少的层实现强大的性能,从而显著降低成本。实验验证,当我们的ContextPool模块插入transformer 模型时,在几种语言和图像基准上使用较少的计算,匹配或超过了最先进的性能,在学习上下文大小或稀疏注意力模式方面优于最近的工作,也适用于ConvNets的高效特征学习。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“RLCP” 就可以获取【ICML2022】基于自适应上下文池化的高效表示学习》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
0

相关内容

【ICML2022】在线决策Transformer
专知会员服务
33+阅读 · 2022年7月27日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
44+阅读 · 2021年1月31日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
【ICML2022】几何多模态对比表示学习
专知
2+阅读 · 2022年7月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2021年5月3日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
12+阅读 · 2021年5月3日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
24+阅读 · 2018年10月24日
Top
微信扫码咨询专知VIP会员