在2017年谷歌设计了Transformer,并在NLP社区显示出了效果之后,有大量的工作专注于将其应用到计算机视觉社区。本文首先简要介绍了计算机视觉中的Transformer。然后,介绍了Transformer模型在低/高级视觉任务、模型压缩和主干设计方面的一些代表性工作。

曹越,现任微软亚洲研究院视觉计算组主管研究员,分别于2014年和2019年在清华大学软件学院获得本科和博士学位,曾于2017年获微软学者奖学金、2018年获清华大学特等奖学金。至今在CVPR、ICCV、ICLR、ICML、NeurIPS等国际会议和期刊中发表论文20余篇,其中有三篇入围PaperDigest Most Influential Papers榜单,谷歌引用五千余次。目前主要的研究兴趣是自监督学习、多模态学习以及自注意力建模。

http://yue-cao.me

成为VIP会员查看完整内容
139

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
专知会员服务
59+阅读 · 2021年4月11日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
97+阅读 · 2020年8月30日
【MLSS2020】最新《深度学习基础》视频讲解,42页ppt
专知会员服务
46+阅读 · 2020年8月5日
迁移学习简明教程,11页ppt
专知会员服务
105+阅读 · 2020年8月4日
综述|计算机视觉中的注意力机制
极市平台
7+阅读 · 2020年8月30日
计算机视觉中深度迁移学习,165页PPT
专知
20+阅读 · 2019年8月18日
自注意力机制在计算机视觉中的应用
GAN生成式对抗网络
18+阅读 · 2018年12月20日
自注意力机制在计算机视觉中的应用【附PPT与视频资料】
人工智能前沿讲习班
17+阅读 · 2018年12月20日
【学科发展报告】计算机视觉
中国自动化学会
42+阅读 · 2018年10月12日
Arxiv
0+阅读 · 2021年12月17日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
4+阅读 · 2018年10月31日
VIP会员
相关VIP内容
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
专知会员服务
59+阅读 · 2021年4月11日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
97+阅读 · 2020年8月30日
【MLSS2020】最新《深度学习基础》视频讲解,42页ppt
专知会员服务
46+阅读 · 2020年8月5日
迁移学习简明教程,11页ppt
专知会员服务
105+阅读 · 2020年8月4日
相关资讯
微信扫码咨询专知VIP会员