Transformer秒杀CNN,凭什么?

2021 年 11 月 15 日 专知
【CV Transformer最新进展】2021年8月,苏黎世联邦理工学院ETH提出Swin Transformer算法应用在图像复原中,在经典图像超分、真实场景图像超分、图像降噪等领域都达到了非常不错的效果。


自提出之日起,Transformer模型已经在CV、NLP以及其他更多领域中「大展拳脚」,实力冲击CNN。


Transformer为什么这么有实力?因为它在分类、检测等任务上展现了极其强劲的性能。而且骨干网络上的发展也推动了下游任务的发展,Swin Transformer更是成了屠榜般的存在,在工业界具有广阔的应用前景。所以引起了人工智能研究生的强烈兴趣。


但要想啃透CV Transformer 难度不小一方面,Transformer本是应用于NLP的论文,其中很多内容都形成了共识,在论文中并不会去详细介绍这些共识内容,例如QKV是什么,embedding是什么等,对于其他方向的人看到这些就很难理解。

另一方面,近小半年,Transformer+CV的论文就已经有40多篇。学术研究更新之快,与脱发速度成正比

如果粉丝们想要系统且高效学习CV Transformer,我推荐大家参加深度之眼 【CV Transformer论文直播精讲】

↓ 前方福利 ↓

原价298元,现在0.1元领取!

购买即赠《效率提升3倍的Paper阅读方法》


↓ 扫描下方二维码立即报名 ↓

 

CV高手方法论,教你系统学习论文


Transformer高手带学  节约21天论文学习时长

深度之眼电子羊导师结合自己工作及学习经验,并配合深度之眼教研团的打磨,总结出一条CV Transformer 的学习路径:


2场直播+录播  夯实 CV Transformer 基础


Step1:系统了解CV Transformer 技术演化路径及发展历史



Step2:精讲CV Transformer基石论文 — ViT

《An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale》简称ViT。ViT是Google在2020年提出的第一篇使用纯transformer来进行图片分类任务的论文,其价值在于展现了在CV中使用纯Transformer结构的可能性,后面很多的工作都基于ViT进行改进的


而且这个模型出来才半年多,github上ViT的repo就有很多了,基于tensorflow和pytorch的都有。star数目前已都是几千,可见影响力之大 。个人感觉ViT对之后的论文影响很大,很多论文都借鉴了VIT里面的相关做法。


深度之眼电子羊导师 将从 研究背景 到 算法模型,带你啃透ViT!


① 深挖研究背景 


提纲挚领,从4大维度介绍论文,深入讲解论文发表的研究背景、成果及意义,介绍论文中取得的核心成果,对比解决同一问题,已有解决方法和论文中提出的新的解决方法的优缺点,熟悉论文的整体思路和框架,建立对本篇论文的一个概貌性认识。



② 死磕算法模型


老师会重点讲解论文中的模型原理,深入拆解模型结构,对关键公式逐步推导,让你了解算法每一个因子是如何对结果产生影响的,掌握实验手段及结果,老师会帮你拎出论文中的关键点、创新点和启发点,节约你自己摸索的时间。



高手伴学 共同提升


· 3天高质量社群服务,导师全程陪伴

· 2场直播+录播,开启 CV Transformer 新篇章

· 100+学员同群交流,学习经验up up⬆⬆⬆

· 助教24小时答疑,再也不怕debug

· 专属班主任私信督学,治疗学习拖延症


完课即赠价值298元学习大礼包


为了激励大家完成学习,我们还准备了价值298元的算法工程师面试锦囊。只要完成全部课程的学习,你就能私信班主任获取!




学员好评,真香!



这一次,我给粉丝们申请了30个直播福利名额参加即赠秘籍:《效率提升3倍的Paper阅读方法》。


↓ 前方福利 ↓

原价298元,现在0.1元领取!

购买即赠《效率提升3倍的Paper阅读方法》


↓ 扫描下方二维码立即报名 ↓

CV高手方法论,教你系统学习论文


如果你不知道怎么读论文、不知道如何正确复现论文,一定要跟着这门课程学习一次,因为正确的方法可以节约你10倍的阅读时间。


登录查看更多
0

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
TPAMI 2022|华为诺亚最新视觉Transformer综述
专知会员服务
55+阅读 · 2022年2月24日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
卷积神经网络中的注意力机制综述
专知会员服务
75+阅读 · 2021年10月22日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
65+阅读 · 2021年5月23日
专知会员服务
59+阅读 · 2021年5月11日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
强的离谱,Transformer 杀疯了!
夕小瑶的卖萌屋
0+阅读 · 2022年3月9日
2022入坑图像分割,我该从哪儿入手?
CVer
2+阅读 · 2022年2月24日
如何入门大火的图神经网络?
CVer
0+阅读 · 2022年2月10日
推荐一个论文复现神器!
图与推荐
1+阅读 · 2021年11月22日
Node2Vec:万物皆可Embedding
图与推荐
0+阅读 · 2021年10月14日
提升 NLP 实战技能的一点建议
夕小瑶的卖萌屋
0+阅读 · 2021年9月23日
引用次数在 19000 次+的,都是什么神仙论文?
夕小瑶的卖萌屋
0+阅读 · 2021年9月22日
火爆 GitHub!这个图像分割神器究竟有什么魅力?
夕小瑶的卖萌屋
0+阅读 · 2021年7月19日
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
Arxiv
2+阅读 · 2022年4月19日
Arxiv
1+阅读 · 2022年4月18日
Arxiv
1+阅读 · 2022年4月15日
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
17+阅读 · 2021年3月29日
VIP会员
相关VIP内容
TPAMI 2022|华为诺亚最新视觉Transformer综述
专知会员服务
55+阅读 · 2022年2月24日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
卷积神经网络中的注意力机制综述
专知会员服务
75+阅读 · 2021年10月22日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
65+阅读 · 2021年5月23日
专知会员服务
59+阅读 · 2021年5月11日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
相关资讯
强的离谱,Transformer 杀疯了!
夕小瑶的卖萌屋
0+阅读 · 2022年3月9日
2022入坑图像分割,我该从哪儿入手?
CVer
2+阅读 · 2022年2月24日
如何入门大火的图神经网络?
CVer
0+阅读 · 2022年2月10日
推荐一个论文复现神器!
图与推荐
1+阅读 · 2021年11月22日
Node2Vec:万物皆可Embedding
图与推荐
0+阅读 · 2021年10月14日
提升 NLP 实战技能的一点建议
夕小瑶的卖萌屋
0+阅读 · 2021年9月23日
引用次数在 19000 次+的,都是什么神仙论文?
夕小瑶的卖萌屋
0+阅读 · 2021年9月22日
火爆 GitHub!这个图像分割神器究竟有什么魅力?
夕小瑶的卖萌屋
0+阅读 · 2021年7月19日
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
相关论文
Arxiv
2+阅读 · 2022年4月19日
Arxiv
1+阅读 · 2022年4月18日
Arxiv
1+阅读 · 2022年4月15日
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
17+阅读 · 2021年3月29日
Top
微信扫码咨询专知VIP会员