多模态学习使神经网络能够处理和整合来自不同感知模态(如视觉、语言和声音)的信息,在情感计算、医疗健康和高级多模态聊天机器人等应用中日益重要。尽管多模态学习具有广阔的潜力,但仍面临诸多挑战,尤其是在数据效率方面。构建高质量的大规模多模态数据集的需求构成了巨大的障碍,限制了大规模多模态模型的可扩展性和可获取性。 本论文研究了数据高效的深度多模态学习中的关键问题,重点关注不均衡的多模态数据选择、多模态主动学习中的冷启动问题,以及大型视觉-语言模型(VLMs)中的幻觉问题。 首先,我们分析了传统主动学习策略的局限性,这些策略往往偏向于主导模态,导致模型在训练过程中忽略较弱的模态,从而形成不平衡的多模态表示。为了解决这一问题,我们提出了一种梯度嵌入调制(gradient embedding modulation)方法,以确保数据选择过程中对不同模态的公平性,从而提升模型对强模态和弱模态的均衡利用能力。 基于我们在热启动(warm-start)主动学习方面的研究,我们进一步研究了多模态主动学习中的冷启动(cold-start)问题,即在没有初始标注数据的情况下如何有效进行数据选择。为此,我们提出了一种两阶段方法

  1. 多模态自监督学习:通过使用单模态原型(unimodal prototypes)来统一不同模态的表示,从而缩小模态间的表示差距。
  2. 数据选择阶段:引入正则化项以最大化模态对齐度,在不增加数据量的前提下提升模型性能,相较于现有方法取得了更优结果。

在从数据选择扩展到训练数据利用的研究中,我们进一步探讨了大型视觉-语言模型(VLMs)中的幻觉(hallucination)问题,即模型在生成内容时产生与输入图像上下文不符的错误信息。我们研究了幻觉现象与视觉依赖性(visual dependence)之间的关系,揭示了某些特定 token 对幻觉的贡献远高于其他 token。基于这一发现,我们提出了一种训练权重调整策略,根据 token 的视觉依赖性来调整训练过程中的权重分配,从而在无需额外训练数据或推理成本的情况下有效降低幻觉率。 本论文的贡献在于推动数据高效的多模态学习,通过优化多模态数据选择、解决冷启动问题,以及减少大型视觉-语言模型中的幻觉,本研究为更实用、可扩展的多模态学习系统奠定了基础,使其在降低数据和计算成本的同时提升模型性能

成为VIP会员查看完整内容
0

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【伯克利博士论文】高效深度学习推理的全栈方法
专知会员服务
27+阅读 · 2024年12月22日
【NUS博士论文】视频语义理解中的因果模型
专知会员服务
31+阅读 · 2024年10月30日
【MIT博士论文】高效深度学习计算的模型加速
专知会员服务
28+阅读 · 2024年8月23日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
【AI与医学】多模态机器学习精准医疗健康
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
155+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员