简介: Self-attention对文本处理有很大影响,并成为NLU自然语言理解的构成部分。 但是,这种成功并不仅限于文本(或一维序列),基于变压器的体系结构可以在视觉任务上击败最新的ResNet。 为了解释这一成就,我们的工作表明自我注意力可以表达CNN层,并且在实践中可以学习卷积滤波器。

Ashish Vaswani及其同事介绍的转换器架构已成为自然语言理解的主要力量。 转换器与以前的方法(例如递归神经网络(RNN)和卷积神经网络(CNN))之间的主要区别在于,转换器可以同时关注输入序列中的每个单词。

最近,Google AI的研究人员成功地将转换器架构应用于图像。 这意味着通过Self-attention替换所有CNN层,并调整参数数量以进行公平比较。 本文是对“自我注意和卷积层之间关系的论文”的简介,在本文中我们研究了变形器如何处理图像。 具体来说,我们表明具有足够数量的头部的多头自我注意层可以至少与任何卷积层一样具有表现力。 我们的发现提出了图像上变压器成功的可能解释。

code:https://github.com/epfml/attention-cnn

成为VIP会员查看完整内容
36

相关内容

计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
专知会员服务
26+阅读 · 2020年2月15日
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
论文共读 | Attention is All You Need
黑龙江大学自然语言处理实验室
14+阅读 · 2017年9月7日
CNN之卷积层
机器学习算法与Python学习
8+阅读 · 2017年7月2日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
27+阅读 · 2018年4月12日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关VIP内容
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
专知会员服务
26+阅读 · 2020年2月15日
相关资讯
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
论文共读 | Attention is All You Need
黑龙江大学自然语言处理实验室
14+阅读 · 2017年9月7日
CNN之卷积层
机器学习算法与Python学习
8+阅读 · 2017年7月2日
相关论文
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
27+阅读 · 2018年4月12日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
微信扫码咨询专知VIP会员