本文探讨了基础模型的双重用途挑战及其对国际安全构成的风险。随着人工智能(AI)模型越来越多地在民用和军用领域进行测试和部署,区分这些用途变得更加复杂,有可能导致国家间的误解和意外升级。基础模型的广泛能力降低了将民用模型转用于军事用途的成本,从而难以辨别另一个国家开发和部署这些模型背后的意图。随着人工智能对军事能力的增强,这种辨别能力对于评估一个国家构成军事威胁的程度至关重要。因此,区分这些模型的军用和民用应用的能力是避免潜在军事升级的关键。本文通过基础模型开发周期中的四个关键因素分析了这一问题:模型输入、能力、系统用例和系统部署。这一框架有助于阐明民用与军事应用之间可能产生歧义的点,从而导致潜在的误解。本文以《中程核力量条约》(INF)为案例,提出了几项降低相关风险的策略。这些策略包括为军事竞争划定红线、加强信息共享协议、采用基金会模式促进国际透明度,以及对特定武器平台施加限制。通过有效管理双重用途风险,这些战略旨在最大限度地减少潜在的升级,并解决与日益通用的人工智能模型相关的权衡问题。