本教程将介绍自注意力机制在计算机视觉中的应用。Self-Attention在NLP中被广泛采用,完全注意的Transformer模型已经在很大程度上取代了RNN,现在被用于最先进的语言理解模型,如GPT、BERT、XLNet、T5、Electra和Meena。因此,人们对研究自注意力是否能在计算机视觉中产生同样巨大而深远的影响产生了极大的兴趣。然而,由于视觉任务与语言任务具有不同的性质,因此许多研究都致力于探索自注意力在视觉模型中的最佳应用方式。本教程将涵盖视觉中自注意力的许多不同应用,以便让用户对这个子领域有一个广泛而精确的理解。

https://icml.cc/Conferences/2021/Schedule

成为VIP会员查看完整内容
130

相关内容

专知会员服务
76+阅读 · 2021年7月23日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
116+阅读 · 2021年2月7日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
41+阅读 · 2020年12月10日
专知会员服务
314+阅读 · 2020年11月24日
最新《域自适应视觉应用》ECCV2020教程,43页PPT
专知会员服务
25+阅读 · 2020年11月5日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
计算机视觉中深度迁移学习,165页PPT
专知
23+阅读 · 2019年8月18日
自注意力机制在计算机视觉中的应用【附PPT与视频资料】
人工智能前沿讲习班
17+阅读 · 2018年12月20日
干货!自然语言处理中的自注意力机制!
全球人工智能
11+阅读 · 2018年3月27日
TensorFlow图像分类教程
机器学习研究会
33+阅读 · 2017年12月29日
Arxiv
0+阅读 · 2021年9月18日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关VIP内容
专知会员服务
76+阅读 · 2021年7月23日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
116+阅读 · 2021年2月7日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
41+阅读 · 2020年12月10日
专知会员服务
314+阅读 · 2020年11月24日
最新《域自适应视觉应用》ECCV2020教程,43页PPT
专知会员服务
25+阅读 · 2020年11月5日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
微信扫码咨询专知VIP会员