【Tutorial】计算机视觉中的Transformer,98页ppt

2021 年 10 月 25 日 专知

在2017年谷歌设计了Transformer,并在NLP社区显示出了效果之后,有大量的工作专注于将其应用到计算机视觉社区。本文首先简要介绍了计算机视觉中的Transformer。然后,介绍了Transformer模型在低/高级视觉任务、模型压缩和主干设计方面的一些代表性工作。


曹越,现任微软亚洲研究院视觉计算组主管研究员,分别于2014年和2019年在清华大学软件学院获得本科和博士学位,曾于2017年获微软学者奖学金、2018年获清华大学特等奖学金。至今在CVPR、ICCV、ICLR、ICML、NeurIPS等国际会议和期刊中发表论文20余篇,其中有三篇入围PaperDigest Most Influential Papers榜单,谷歌引用五千余次。目前主要的研究兴趣是自监督学习、多模态学习以及自注意力建模。

http://yue-cao.me






专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“T98” 就可以获取【Tutorial】计算机视觉中的Transformer,98页ppt》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
18

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
常识知识的获取与推理,171页ppt
专知会员服务
61+阅读 · 2021年11月9日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
专知会员服务
59+阅读 · 2021年4月11日
最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
专知会员服务
313+阅读 · 2020年11月24日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
103+阅读 · 2020年8月30日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
【Facebook AI】低资源机器翻译,74页ppt
专知
10+阅读 · 2020年4月8日
异质图神经网络:模型与应用,附PPT
专知
5+阅读 · 2020年2月21日
【微软亚研130PPT教程】强化学习简介
专知
36+阅读 · 2018年10月26日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
23+阅读 · 2020年9月16日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关VIP内容
常识知识的获取与推理,171页ppt
专知会员服务
61+阅读 · 2021年11月9日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
专知会员服务
59+阅读 · 2021年4月11日
最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
专知会员服务
313+阅读 · 2020年11月24日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
103+阅读 · 2020年8月30日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
相关论文
Arxiv
39+阅读 · 2021年11月11日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
23+阅读 · 2020年9月16日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
6+阅读 · 2017年12月7日
Top
微信扫码咨询专知VIP会员