CVPR 2022 线下会议将于 2022 年 6 月 21 日-24 日在美国新奥尔良举行。而今年投稿量创新高超过了一万,其中 2067 篇论文被接收。各位学者带来了一系列教程。来自卡内基梅隆大学研究学者讲述了《多模态机器学习》教程,200+页ppt值得关注。

多模态机器学习是一个充满活力的多学科研究领域,通过设计计算机agent来实现人工智能的一些原始目标,这些计算机agent能够通过集成和建模多种通信模态(包括语言、声学和视觉信息)来展示智能能力,如理解、推理和规划。随着视听语音识别的初步研究,以及最近的语言和视觉项目,如图像和视频字幕、视觉问题回答和语言引导强化学习,该研究领域给多模态研究人员带来了一些独特的挑战,因为数据的异质性和通常发现的模态之间的偶然性。

本教程建立在卡内基梅隆大学教授的多模态机器学习年度课程的基础上,是CVPR、ACL和ICMI会议上多模态学习以前教程的一个完全修订版本。本教程基于多模态机器学习中存在的核心技术挑战的修订分类,围绕这六个核心挑战: 表示、对齐、推理、迁移、生成和量化。最近的技术成果将通过这种多模态核心挑战的分类法来展示,使研究人员能够理解方法和新模型之间的相似性和差异性。本教程还旨在对多模态机器学习的未来研究方向提供一个视角。

https://cmu-multicomp-lab.github.io/mmml-tutorial/cvpr2022/

讲者:

目录内容:

1. 介绍

  • 什么是多模态?定义,异质性的维度和跨模态的相互作用。
  • 历史观与多模态研究任务。
  • 核心技术挑战: 表示、对齐、转移、推理、生成和量化。
  • 单模态语言、视觉和听觉表征。

2. 表示

  • 表示融合: 融合策略,多模态自编码器。
  • 表示协调: 对比学习,向量空间模型,典型相关分析。
  • 表象裂变: 因式分解、成分分析、解缠。

3. 对齐

  • 粒度: 分割、聚类、单元定义。
  • 对应: 潜在对齐方法,注意力模型,多模态transformers。
  • 依存类型: 图神经网络,多实例学习。

4. 推理

  • 结构: 层次结构、图形结构、时序结构和交互结构、结构发现。
  • 概念: 密集和神经象征。
  • 构成: 因果关系和逻辑关系。
  • 知识: 外部知识基础,常识推理。

5. 生成

  • 总结、翻译、创作。
  • 模型评估和伦理问题。

6. 迁移

  • 模态转移: 损失,幻觉,跨模态转移。
  • 基础模型:预训练模型和适应。
  • 模型归纳:协同训练,跨模式学习。

7. 量化

输出质量:泛化、鲁棒性、复杂性。 内部机制:可解释性,理解跨模型交互。 模态权衡: 数据集偏差、社会偏差、理论收益、优化挑战。

成为VIP会员查看完整内容
224

相关内容

我们对世界的体验是多模态的——我们看到物体,听到声音,感觉到纹理,闻到气味,尝到味道。模态是指某件事情发生或经历的方式,一个研究问题如果包含多个模态,就被称为多模态。为了让人工智能在理解我们周围的世界方面取得进展,它需要能够一起解释这种多模态信号。多模态机器学习旨在建立能够处理和关联来自多种模式的信息的模型。这是一个日益重要和具有非凡潜力的充满活力的多学科领域。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Paul Liang】多模态深度学习,Multimodal Deep Learning
专知会员服务
183+阅读 · 2022年4月12日
开课了!CMU《多模态机器学习》2022课程,附课件与视频
专知会员服务
153+阅读 · 2022年2月1日
【UAI2021教程】贝叶斯最优学习,65页ppt
专知会员服务
64+阅读 · 2021年8月7日
专知会员服务
76+阅读 · 2021年7月23日
人工智能顶刊TPAMI2019最新《多模态机器学习综述》
人工智能学家
29+阅读 · 2019年1月19日
这可能是「多模态机器学习」最通俗易懂的介绍
计算机视觉life
113+阅读 · 2018年12月20日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年8月4日
Arxiv
13+阅读 · 2022年1月20日
CSKG: The CommonSense Knowledge Graph
Arxiv
18+阅读 · 2020年12月21日
Arxiv
30+阅读 · 2019年3月13日
VIP会员
相关基金
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员