直播预告 | CVPR 2022论文解读:基于互语义蒸馏网络的零样本学习

2022 年 5 月 25 日 PaperWeekly



本期 AI Drive,我们邀请到华中科技大学在读博士生陈使明,为大家在线解读其发表在 CVPR 2022 的最新研究成果。本次报告的主题为 「基于互语义蒸馏网络的零样本学习 。对本期主题感兴趣的小伙伴,5 月 26 日(本周四)晚 7 点,我们准时相约 PaperWeekly 直播间。



直播信息



零样本学习(Zero-shot Learning, ZSL)旨在通过运用已学到的已知类知识去认知未知类知识。当前的零样本学习方法 1)简单地将图像的全局特征与其关联的语义向量对齐,或 2)利用单向注意机制学习有限的潜在语义表示,无法有效地挖掘视觉特征和属性特征之间的潜在语义知识(如属性语义)。

为了解决上述问题,我们提出了一种 互语义蒸馏网络(MSDN) ,该网络逐步蒸馏视觉和属性特征之间的内在语义表示。MSDN 包含一个属性→视觉的注意力子网络(A→V)学习基于属性的视觉特征,以及视觉→属性注意子网络(V→A)学习基于视觉的属性特征。通过进一步引入语义蒸馏损失促使两个注意子网络能够在训练过程中相互协作学习和教导,从而实现特征的语义蒸馏。我们提出的 MSDN 在多个标准数据集 (i.e., CUB, SUN, AWA2) 上均取得显著效果。

论文信息


文标题:  
MSDN: Mutually Semantic Distillation Network for Zero-Shot Learning

收录会议: 

CVPR 2022

论文链接: 

https://arxiv.org/abs/2203.03137

代码链接: 

https://github.com/shiming-chen/MSDN

演讲提纲


  • 研究背景
  • 研究动机
  • 研究方法
  • 实验分析
  • 总结与讨论



嘉宾介绍



 陈使明 / 华中科技大学博士生 


陈使明,华中科技大学 2019 级博士生,师从尤新革教授。他在 NeurIPS, CVPR, ICCV, AAAI, IJCAI 等人工智能和机器学习领域顶级会议中发表过多篇学术论文。他的主要研究方向是生成建模与学习,零样本学习。个人主页:https://shiming-chen.github.io/


直播地址



本次直播将在 AI Drive 直播间进行, 扫描下方海报二维码 即可免费观看。

 B站直播间  

https://live.bilibili.com/h5/21887724





合作伙伴






🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·


登录查看更多
0

相关内容

【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
20+阅读 · 2022年3月8日
【CVPR2021】基于反事实推断的视觉问答框架
专知会员服务
26+阅读 · 2021年3月4日
【WSDM2021】多交互注意力网络细粒度特征学习的CTR预测
专知会员服务
24+阅读 · 2020年12月27日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
专知会员服务
109+阅读 · 2020年6月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
极市直播|陈使明:零样本学习的关键问题研究
极市平台
1+阅读 · 2022年2月23日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
27+阅读 · 2021年2月17日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Knowledge Representation Learning: A Quantitative Review
Arxiv
11+阅读 · 2018年1月18日
VIP会员
相关VIP内容
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
20+阅读 · 2022年3月8日
【CVPR2021】基于反事实推断的视觉问答框架
专知会员服务
26+阅读 · 2021年3月4日
【WSDM2021】多交互注意力网络细粒度特征学习的CTR预测
专知会员服务
24+阅读 · 2020年12月27日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
专知会员服务
109+阅读 · 2020年6月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
17+阅读 · 2021年3月29日
Arxiv
27+阅读 · 2021年2月17日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Knowledge Representation Learning: A Quantitative Review
Arxiv
11+阅读 · 2018年1月18日
Top
微信扫码咨询专知VIP会员