Training vision-language models via instruction tuning relies on large data mixtures spanning diverse tasks and domains, yet these mixtures frequently include redundant information that increases computational costs without proportional gains. Existing methods typically rely on task-agnostic heuristics to estimate data importance, limiting their effectiveness across tasks. We introduce ICONS, a gradient-based Influence CONsensus approach for vision-language data Selection. Our method leverages first-order training dynamics to estimate each example's influence on validation performance, then aggregates these estimates across tasks via majority voting. This cross-task consensus identifies consistently valuable data points while mitigating score calibration and outlier sensitivity, enabling robust and scalable data selection for diverse multitask mixtures. Models trained on our selected 20% data subset from LLAVA-665K (respectively: from CAMBRIAN-7M, from VISION-FLAN-186K) retain 98.6% (respectively: 98.8%, 99.8%) of full-dataset performance. We demonstrate that our selected data generalizes to unseen tasks and model architectures, and release three compact subsets LLAVA-ICONS-133K, CAMBRIAN-ICONS-1.4M, and VISION-FLAN-ICONS-37K for efficient vision-language model development.


翻译:通过指令微调训练视觉-语言模型依赖于覆盖多样任务和领域的大规模数据混合,但这些混合数据中常包含冗余信息,导致计算成本增加却未带来相应性能提升。现有方法通常依赖与任务无关的启发式规则来估计数据重要性,限制了其在跨任务场景下的有效性。我们提出ICONS,一种基于梯度的影响共识方法,用于视觉-语言数据选择。该方法利用一阶训练动态来估计每个样本对验证性能的影响,随后通过多数投票机制跨任务聚合这些估计值。这种跨任务共识机制能够识别出具有持续价值的数据点,同时缓解分数校准和异常值敏感性问题,从而为多样化的多任务混合数据实现鲁棒且可扩展的数据选择。使用我们从LLAVA-665K(分别对应:CAMBRIAN-7M、VISION-FLAN-186K)中选取的20%数据子集训练的模型,保留了全数据集性能的98.6%(分别对应:98.8%、99.8%)。我们证明了所选数据能泛化至未见任务和模型架构,并发布了三个紧凑子集LLAVA-ICONS-133K、CAMBRIAN-ICONS-1.4M和VISION-FLAN-ICONS-37K,以促进高效视觉-语言模型开发。

0
下载
关闭预览

相关内容

【CVPR2024】ViewDiff: 3D一致的图像生成与文本到图像模型
专知会员服务
30+阅读 · 2024年3月10日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员