强的离谱,Transformer杀疯了!

2022 年 8 月 23 日 PaperWeekly

前段时间 Transformer已席卷计算机视觉领域,并获得大量好评,如『基于Swin-Transformer』、『美团提出具有「位置编码」的Transformer,性能优于ViT和DeiT』、『Lifting Transformer』、『TimeSformer』等等

Transformer为什么这么有实力?

因为它在分类、检测等任务上展现了极其强劲的性能。而且骨干网络上的发展也推动了下游任务的发展,Swin Transformer 更是成了屠榜般的存在,在工业界具有广阔的应用前景。所以引起了人工智能研究生的强烈兴趣。

但要想啃透 CV Transformer 难度不小:一方面,Transformer 本是应用于 NLP的论文,其中很多内容都形成了共识,在论文中并不会去详细介绍这些共识内容,例如 QKV是什么,embedding 是什么等,对于其他方向的人看到这些就很难理解。

尽管已经引起了极大的关注,但将其应用于其他领域时仍面临许多挑战,包括从方法论的合理性到实际商业业务表现。    

咕泡科技很荣幸的邀请到了在人工智能、计算机视觉领域有着丰富的一线实战经验的唐宇迪博士,利用2天的时间,为大家系统地梳理Transformer技术。

直播内容
01
PART

直播时间 :8月24日-8月25日,20:00-22:30

Day1:深度学习CNN卷积神经网络算法精讲

  • 神经网络模型知识点分析
  • 神经网络模型整体架构解读
  • 卷积神经网络整体架构及参数设计


Day2:AI领域最火模块Transformer实例解读

  • 2022AI领域大杀器--Transformer架构思想分析
  • 论文刷点创新必备模块--注意力机制解读
  • 2022各大厂项目如何与Transformer结合与落地
  • Transformer前沿研究方向分析与探索

Transformer技术感兴趣的同学,扫下方二维码,预约直播。

原价199

扫描下方二维码

 0.02元报名 !

福利较大,限前100名



02
PART
主讲老师

直播收获
0 3
PART

讲师带练,伴随式编程环境


你将获得伴随式的编程环境。

讲师带练、运用科学的方法引导,帮你消化疑难知识点

同时还有@唐宇迪老师将会分享 , 一线热门技术和行业经验,众多学员亲测有效的一套技术提升方案,帮你摆脱迷茫明确成长方向

三位一体跟踪服务,项目实战驱动 , 深刻理解原理


只要报名,就能收获讲师、助教、班班全程三位一体跟踪式服务,24H为你答疑解惑。

同时还有来自五湖四海的大牛做同学,技术氛围浓厚,想不进步都难!


完课礼包

注意:已整理到网盘 , 添加助理 , 报名课程后免费领取


















  名师助力    含金量高    提升专业能力
粉丝优惠! 0.02元 !

福利较大,限前100名




Q&A



  Q:课程内容具体有什么?
A:包括但不限于: 基于 Transformer 的应用及 进展分享+名师1V1答疑+专业提升技巧

Q:上课方式是什么?
A:扫码添加老师微信,领取课程链接!

登录查看更多
0

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
可分离尺度Transformer
专知会员服务
22+阅读 · 2022年7月16日
TPAMI 2022|华为诺亚最新视觉Transformer综述
专知会员服务
55+阅读 · 2022年2月24日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
45+阅读 · 2021年9月27日
专知会员服务
29+阅读 · 2021年7月30日
Transformer替代CNN?8篇论文概述最新进展!
专知会员服务
76+阅读 · 2021年1月19日
YOLO杀疯了!目标检测速度与精度的最优组合形
PaperWeekly
0+阅读 · 2022年9月21日
神经网络,凉了?
图与推荐
1+阅读 · 2022年9月13日
OpenMMLAB系列框架解读 (基于PyTorch)
PaperWeekly
0+阅读 · 2022年9月7日
写了一篇关于 多模态学习 综述的综述!
PaperWeekly
1+阅读 · 2022年8月17日
训练加快10倍!基于Transformer的目标检测方法
PaperWeekly
2+阅读 · 2022年7月11日
ViT杀疯了,10+视觉Transformer模型详解
PaperWeekly
0+阅读 · 2022年7月4日
杀疯了!Transformer强势闯入CV界秒杀CNN
PaperWeekly
0+阅读 · 2022年5月31日
强的离谱,Transformer 杀疯了!
夕小瑶的卖萌屋
0+阅读 · 2022年3月9日
Transformer秒杀CNN,凭什么?
专知
0+阅读 · 2021年11月15日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
33+阅读 · 2022年2月15日
Arxiv
15+阅读 · 2022年1月24日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关资讯
YOLO杀疯了!目标检测速度与精度的最优组合形
PaperWeekly
0+阅读 · 2022年9月21日
神经网络,凉了?
图与推荐
1+阅读 · 2022年9月13日
OpenMMLAB系列框架解读 (基于PyTorch)
PaperWeekly
0+阅读 · 2022年9月7日
写了一篇关于 多模态学习 综述的综述!
PaperWeekly
1+阅读 · 2022年8月17日
训练加快10倍!基于Transformer的目标检测方法
PaperWeekly
2+阅读 · 2022年7月11日
ViT杀疯了,10+视觉Transformer模型详解
PaperWeekly
0+阅读 · 2022年7月4日
杀疯了!Transformer强势闯入CV界秒杀CNN
PaperWeekly
0+阅读 · 2022年5月31日
强的离谱,Transformer 杀疯了!
夕小瑶的卖萌屋
0+阅读 · 2022年3月9日
Transformer秒杀CNN,凭什么?
专知
0+阅读 · 2021年11月15日
相关基金
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
33+阅读 · 2022年2月15日
Arxiv
15+阅读 · 2022年1月24日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
15+阅读 · 2020年2月5日
Top
微信扫码咨询专知VIP会员