火爆的Transformer,可能是目前最好发论文的神器!

2022 年 10 月 19 日 PaperWeekly

前段时间 Transformer已席卷计算机视觉领域,并获得大量好评,如『基于Swin-Transformer』、『美团提出具有「位置编码」的Transformer,性能优于ViT和DeiT』、『Lifting Transformer』、『TimeSformer』等等

Transformer为什么这么有实力?

因为它在分类、检测等任务上展现了极其强劲的性能。而且骨干网络上的发展也推动了下游任务的发展,Swin Transformer 更是成了屠榜般的存在,在工业界具有广阔的应用前景。所以引起了人工智能研究生的强烈兴趣。

另一方面,近小半年,Transformer+CV的论文就已经有40多篇。学术研究更新之快,与脱发速度成正比。Transformer 作为最近热起来的方向,卷起来了但是又不是那么卷,在这个方向可探索的空间还很大,获得一个好的idea,写出一篇好论文的概率相对就大得多。

毕竟能发论文没有谁会拒绝……

那么剩下的问题就是,怎么发(水)论文?

想要快速发论文有两点至关重要。

1.紧跟风口。

想发文章最容易的方法就是紧跟风口,顺着领域内的研究趋势确定自己的方向,毕竟在热门领域内,创新点和idea远比其他非热门领域多。

2.有一位有经验有能力的前辈指导。

大家都在努力的设计新网络、新策略、新training算法,只要能够在某一问题上做到一个很好的performance,论文就水到渠成。

而想要快速达到,来自前辈的指点不可或缺。

咕泡科技特别邀请、唐宇迪老师通过讲解transformer最新前沿论文,全方位解读transformer发展应用、可创新方向。

扫描下方二维码

报名学习课程

获得完整版学习规划和课后福利


请大家务必根据页面提示,添加老师后才能领取课程和完课资料哦!


01
PART
主讲老师

直播内容
02
PART

直播时间 :10月19日-10月20日,20:00-22:30
 Day1:深度学习CNN卷积神经网络算法精讲 
  • 神经网络模型知识点分析
  • 神经网络模型整体架构解读
  • 卷积神经网络整体架构及参数设计

Day2:AI领域最火模块Transformer实例解读

  • 2022AI领域大杀器--Transformer架构思想分析
  • 论文刷点创新必备模块--注意力机制解读
  • 2022各大厂项目如何与Transformer结合与落地
  • Transformer前沿研究方向分析与探索

这次课程尤其适合对AI有一定了解,但是没有明确选题目标;或者已经明确自己选题,但是找不到改进方向的同学;当然也适合对transformer感兴趣的从业者。

创新点和idea不可能凭空生成,好的performance 也绝不可能一蹴而就。

所以,如果你对自己的选题和研究方向还有疑问,这节课你一定不能错过。唐宇迪老师,一定能给出你专业的意见和指导。

扫描下方二维码

报名学习课程

获得完整版学习规划和课后福利


请大家务必根据页面提示,添加老师后才能领取课程和完课资料哦!

咕泡小班制学习服务
0 3
PART

讲师带练,伴随式编程环境

你将获得伴随式的编程环境。

讲师带练、运用科学的方法引导,帮你消化疑难知识点

同时还有@唐宇迪老师将会分享 , 一线热门技术和行业经验,众多学员亲测有效的一套技术提升方案,帮你摆脱迷茫明确成长方向


三位一体跟踪服务,项目实战驱动 , 深刻理解原理

只要报名,就能收获讲师、助教、班班全程三位一体跟踪式服务,24H为你答疑解惑。

同时还有来自五湖四海的大牛做同学,技术氛围浓厚,想不进步都难!


扫描下方二维码

报名学习课程

获得完整版学习规划和课后福利

咕泡科技 ~ 让每个人的职业生涯不留遗憾


Q&A



  Q:课程内容具体有什么?
A:包括但不限于:基于transformer的应用及研究进展分析+名师1V1答疑+专业提升技巧

Q:上课方式是什么?
A:扫码添加老师微信,领取课程链接!

登录查看更多
0

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
ICLR 2022 | BEIT论文解读:将MLM无监督预训练应用到CV领域
专知会员服务
32+阅读 · 2022年3月24日
如何撰写一篇好的科研论文?这份22页ppt为你指点一二
专知会员服务
63+阅读 · 2021年7月11日
Transformer替代CNN?8篇论文概述最新进展!
专知会员服务
75+阅读 · 2021年1月19日
2020图机器学习GNN的四大研究趋势,21篇论文下载
专知会员服务
135+阅读 · 2020年2月10日
强的离谱,Transformer 杀疯了!
PaperWeekly
0+阅读 · 2022年11月15日
从入门深度学习到能发顶会,你用了多久?
PaperWeekly
1+阅读 · 2022年10月24日
YOLO杀疯了!目标检测速度与精度的最优组合形
PaperWeekly
0+阅读 · 2022年9月21日
神经网络,凉了?
图与推荐
1+阅读 · 2022年9月13日
强的离谱,Transformer杀疯了!
PaperWeekly
0+阅读 · 2022年8月23日
还不会复现Node2vec的进
图与推荐
0+阅读 · 2022年6月8日
杀疯了!Transformer强势闯入CV界秒杀CNN
PaperWeekly
0+阅读 · 2022年5月31日
图神经网络到底是什么?终于有人讲明白了
夕小瑶的卖萌屋
1+阅读 · 2022年3月15日
Transformer秒杀CNN,凭什么?
专知
0+阅读 · 2021年11月15日
火爆 GitHub!这个图像分割神器究竟有什么魅力?
夕小瑶的卖萌屋
0+阅读 · 2021年7月19日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
35+阅读 · 2022年3月14日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
17+阅读 · 2021年3月29日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
相关资讯
强的离谱,Transformer 杀疯了!
PaperWeekly
0+阅读 · 2022年11月15日
从入门深度学习到能发顶会,你用了多久?
PaperWeekly
1+阅读 · 2022年10月24日
YOLO杀疯了!目标检测速度与精度的最优组合形
PaperWeekly
0+阅读 · 2022年9月21日
神经网络,凉了?
图与推荐
1+阅读 · 2022年9月13日
强的离谱,Transformer杀疯了!
PaperWeekly
0+阅读 · 2022年8月23日
还不会复现Node2vec的进
图与推荐
0+阅读 · 2022年6月8日
杀疯了!Transformer强势闯入CV界秒杀CNN
PaperWeekly
0+阅读 · 2022年5月31日
图神经网络到底是什么?终于有人讲明白了
夕小瑶的卖萌屋
1+阅读 · 2022年3月15日
Transformer秒杀CNN,凭什么?
专知
0+阅读 · 2021年11月15日
火爆 GitHub!这个图像分割神器究竟有什么魅力?
夕小瑶的卖萌屋
0+阅读 · 2021年7月19日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
35+阅读 · 2022年3月14日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
17+阅读 · 2021年3月29日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
27+阅读 · 2017年12月6日
Top
微信扫码咨询专知VIP会员