直播预告 | ICLR 2022:UniFormer—用于高效时空表征学习的统一变换器

2022 年 4 月 24 日 PaperWeekly



本期 AI Drive,我们邀请到中国科学院深圳先进技术研究院在读博士生黎昆昌,为大家在线解读其发表在 ICLR 2022 的最新研究成果。本次报告的主题为 「UniFormer:用于高效时空表征学习的统一变换器 。对本期主题感兴趣的小伙伴,4 月 26 日(本周二)晚 7 点,我们准时相约 PaperWeekly 直播间。



直播信息



视频帧间存在巨大的局部冗余性与复杂的全局依赖性,使得从视频中学习丰富的多尺度语义信息极具挑战。现有的两大主流模型 CNN 和 ViT,往往只关注解决问题之一。卷积只在局部小邻域聚合上下文,天然地避免了冗余的全局计算,但受限的感受野难以建模全局依赖;而自注意力通过比较全局相似度,自然将长距离目标关联,但可视化分析表明,自注意力在浅层编码局部特征十分低效。

在 UniFormer 中,我们以 Transformer 的风格统一了卷积与自注意力,在网络浅层和深层分别解决冗余性与长时依赖性两大问题。 实验表明,UniFormer 不仅在视频分类上性能优越,而且拓展到图像分类、检测、分割和姿态估计任务上,同样效果显著。

论文信息


文标题:  
UniFormer: Unified Transformer for Efficient Spatiotemporal Representation Learning

收录会议: 

ICLR 2022

论文链接: 

https://openreview.net/forum?id=nBU_u6DLvoK

演讲提纲


  • 研究背景

  • 研究方法

  • 结果分析

  • 下游拓展

  • 结果与展望


嘉宾介绍



 黎昆昌 / 中科院深圳先进院博士生 

黎昆昌,中国科学院深圳先进技术研究院二年级博士生,师从乔宇研究员和王亚立副研究员。主要研究方向为为视频理解与轻量化模型设计。


直播地址



本次直播将在 PaperWeekly 视频号和 B 站直播间进行, 扫描下方海报二维码 或点击 阅读原文 即可免费观看。

 微信视频号 

点击下方 PaperWeekly 视频号预约按钮,第一时间获取开播提醒。



 B站直播间  

https://live.bilibili.com/14884511






合作伙伴






🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·


登录查看更多
0

相关内容

【CVPR2022】基于渐进自蒸馏的鲁棒跨模态表示学习
专知会员服务
18+阅读 · 2022年4月13日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年6月13日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员