Following the initial flourishing of large language models (LLMs), there has been a surge in proposed large vision-language models (LVLMs) that integrate LLMs with vision capabilities. However, it has been observed that LVLMs, after tuning to visual instruction using commonly used training datasets, often fail to exhibit the instruction-following ability that was present in the LLM before integration, leading to results in which they do not follow task instructions as expected. This study quantitatively demonstrates that LVLMs' instruction-following ability declines after fine-tuning and analyzes its underlying causes. In particular, we constructed new training datasets highlighting whether the output format is specified. Then, we investigated how explicitly indicating the output format during fine-tuning affects LVLMs' instruction-following ability. Our quantitative evaluation confirmed that LVLMs' instruction-following ability declines after fine-tuning with commonly used datasets. Furthermore, we found that LVLMs trained with datasets, including instructions on output format, tend to follow instructions more accurately than models that do not. These findings suggest that including samples with instructions on output format during (visual) instruction tuning may help mitigate the decline in instruction-following abilities.


翻译:继大型语言模型(LLM)的初步蓬勃发展之后,涌现出大量将LLM与视觉能力相结合的大型视觉语言模型(LVLM)。然而,研究发现,LVLM在使用常用训练数据集进行视觉指令微调后,往往无法展现出整合前LLM所具备的指令遵循能力,导致其无法按预期遵循任务指令。本研究定量论证了LVLM在微调后指令遵循能力下降的现象,并分析了其根本原因。具体而言,我们构建了强调输出格式是否被明确指定的新训练数据集,进而探究在微调过程中显式指示输出格式如何影响LVLM的指令遵循能力。定量评估证实,使用常用数据集微调后LVLM的指令遵循能力确实会下降。此外,我们发现,使用包含输出格式指令的数据集训练的LVLM,往往比未使用此类数据的模型更准确地遵循指令。这些发现表明,在(视觉)指令微调阶段加入包含输出格式指令的样本,可能有助于缓解指令遵循能力的下降。

0
下载
关闭预览

相关内容

RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
87+阅读 · 2024年5月3日
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
40+阅读 · 2022年2月28日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员