Recent advances in large language models (LLMs) have been largely driven by scaling laws for individual models, which predict performance improvements as model parameters and data volume increase. However, the capabilities of any single LLM are inherently bounded. One solution originates from intricate interactions among multiple LLMs, rendering their collective performance surpasses that of any constituent model. Despite the rapid proliferation of multi-model integration techniques such as model routing and post-hoc ensembling, a unifying theoretical framework of performance scaling for multi-model collaboration remains absent. In this work, we propose the Law of Multi-model Collaboration, a scaling law that predicts the performance limits of LLM ensembles based on their aggregated parameter budget. To quantify the intrinsic upper bound of multi-model collaboration, we adopt a method-agnostic formulation and assume an idealized integration oracle where the total cross-entropy loss of each sample is determined by the minimum loss of any model in the model pool. Experimental results reveal that multi-model systems follow a power-law scaling with respect to the total parameter count, exhibiting a more significant improvement trend and a lower theoretical loss floor compared to single model scaling. Moreover, ensembles of heterogeneous model families achieve better performance scaling than those formed within a single model family, indicating that model diversity is a primary driver of collaboration gains. These findings suggest that model collaboration represents a critical axis for extending the intelligence frontier of LLMs.


翻译:近年来,大语言模型(LLMs)的进展主要受个体模型规模扩展定律的驱动,该定律预测模型性能会随参数量和数据量的增加而提升。然而,任何单一LLM的能力都存在固有上限。一种解决方案源于多个LLM之间复杂的交互作用,使得它们的集体性能超越任何单个组成模型。尽管模型路由和后验集成等多模型集成技术迅速涌现,但关于多模型协作性能扩展的统一理论框架仍然缺失。在本工作中,我们提出了多模型协作定律,这是一个基于集成模型总参数量预算来预测LLM集成性能极限的规模扩展定律。为量化多模型协作的内在性能上限,我们采用了一种与具体方法无关的表述形式,并假设存在一个理想的集成预言机,其中每个样本的总交叉熵损失由模型池中任意模型的最小损失决定。实验结果表明,多模型系统遵循关于总参数量的幂律扩展规律,与单模型扩展相比,呈现出更显著的性能提升趋势和更低的理论损失下限。此外,由异构模型系列构成的集成比单一模型系列内部构成的集成实现了更好的性能扩展,这表明模型多样性是协作增益的主要驱动力。这些发现表明,模型协作是扩展LLM智能前沿的一个关键方向。

0
下载
关闭预览

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
专知会员服务
30+阅读 · 2020年9月18日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
专知会员服务
30+阅读 · 2020年9月18日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员