高效的迁移学习方法,如基于适配器的方法,已在单模态模型和视觉-语言模型中取得了巨大成功。然而,现有方法在微调多模态模型时面临两个主要挑战。首先,这些方法是为视觉-语言任务设计的,难以扩展到涉及多于两种模态的情况。其次,它们在模态间交互的利用上有限,且缺乏高效性。为了解决这些问题,本文提出了低秩序列多模态适配器(Wander)。我们首先通过外积有效地以逐元素方式融合来自不同模态的信息。为了提高效率,我们采用CP分解将张量分解为秩为一的组件,从而实现大幅度的参数减少。此外,我们还实现了一个基于令牌的低秩分解,用于提取更精细的特征和模态之间的序列关系。通过这些设计,Wander以参数高效的方式实现了不同模态序列之间的令牌级交互。

我们在不同模态数目的数据集上进行了广泛实验,结果表明,Wander consistently 优于现有的高效迁移学习方法。实验结果充分证明了Wander的有效性、效率和普适性。

成为VIP会员查看完整内容
14

相关内容

【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
31+阅读 · 2023年4月29日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
【UFPE大学博士论文】基于熵损失的鲁棒深度学习
专知会员服务
42+阅读 · 2022年11月11日
专知会员服务
25+阅读 · 2021年7月8日
专知会员服务
16+阅读 · 2021年7月7日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【ICML2020】持续终身学习的神经主题建模
专知会员服务
38+阅读 · 2020年6月22日
「基于通信的多智能体强化学习」 进展综述
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
70+阅读 · 2023年3月26日
Arxiv
153+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
31+阅读 · 2023年4月29日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
【UFPE大学博士论文】基于熵损失的鲁棒深度学习
专知会员服务
42+阅读 · 2022年11月11日
专知会员服务
25+阅读 · 2021年7月8日
专知会员服务
16+阅读 · 2021年7月7日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【ICML2020】持续终身学习的神经主题建模
专知会员服务
38+阅读 · 2020年6月22日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员