【导读】CVPR2020workshop的视觉与语言研究,邀请了业界学者讲述了视觉语言之间的研究进展。来自微软和facebook的Licheng Yu, Yen-Chun Chen, Linjie Li讲述了自监督学习在视觉语言建模中的技术进展,共115页ppt,不容错过!

https://rohit497.github.io/Recent-Advances-in-Vision-and-Language-Research/

视觉和语言(V+L)研究是计算机视觉和自然语言处理之间联系的一个有趣的领域,并迅速吸引了这两个领域的关注。各种各样的V+L任务,以大规模的人类注释数据集为基准,已经推动了联合多模态表示学习的巨大进步。本教程将重点介绍该领域中最近流行的一些任务,如视觉描述、视觉基准、视觉问题回答和推理、文本到图像的生成以及通用图像-文本表示的自监督学习。我们将涵盖这些领域的最新方法,并讨论集中体现多模态理解、推理和生成的核心挑战和机遇的关键原则。

成为VIP会员查看完整内容
57

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
177+阅读 · 2020年5月29日
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
46+阅读 · 2020年4月19日
【教程】自然语言处理中的迁移学习原理,41 页PPT
专知会员服务
94+阅读 · 2020年2月8日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
多媒体大数据分析研究进展综述导读
专知
8+阅读 · 2018年3月19日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
5+阅读 · 2019年4月25日
Arxiv
12+阅读 · 2019年2月26日
VIP会员
相关论文
微信扫码咨询专知VIP会员