本文探讨了基础模型的双重用途挑战及其对国际安全构成的风险。随着人工智能(AI)模型越来越多地在民用和军用领域进行测试和部署,区分这些用途变得更加复杂,有可能导致国家间的误解和意外升级。基础模型的广泛能力降低了将民用模型转用于军事用途的成本,从而难以辨别另一个国家开发和部署这些模型背后的意图。随着人工智能对军事能力的增强,这种辨别能力对于评估一个国家构成军事威胁的程度至关重要。因此,区分这些模型的军用和民用应用的能力是避免潜在军事升级的关键。本文通过基础模型开发周期中的四个关键因素分析了这一问题:模型输入、能力、系统用例和系统部署。这一框架有助于阐明民用与军事应用之间可能产生歧义的点,从而导致潜在的误解。本文以《中程核力量条约》(INF)为案例,提出了几项降低相关风险的策略。这些策略包括为军事竞争划定红线、加强信息共享协议、采用基金会模式促进国际透明度,以及对特定武器平台施加限制。通过有效管理双重用途风险,这些战略旨在最大限度地减少潜在的升级,并解决与日益通用的人工智能模型相关的权衡问题。

成为VIP会员查看完整内容
32

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《AI/ML 供应链软件依赖性风险分析》2023最新95页论文
专知会员服务
36+阅读 · 2023年12月19日
《海军陆战队战术云的零信任架构》2023最新87页论文
专知会员服务
44+阅读 · 2023年12月1日
《分布式多智能体深度强化学习:竞争性博弈》最新论文
专知会员服务
124+阅读 · 2023年3月16日
专知会员服务
47+阅读 · 2021年6月12日
【2022新书】深度学习归一化技术,117页pdf
专知
24+阅读 · 2022年11月25日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员