→ 人工智能在军事领域的应用正超越治理框架的发展,压缩了决策时间并增加了升级风险。为此,必须在系统、组织和国家间层面将“信任”操作化为有保障的可靠性、明确的声明、证据和问责制。
→ “为设计而信任”框架提供了可能的途径,以确保技术和治理考量被嵌入人工智能系统的全生命周期。
→ 国家间就新兴军事技术建立建立信任措施,对于确保信任构建是必要的。迫切需要诸如相互原则声明、事件通报协议和联合核查机制等建立信任措施,以防止误判和升级。
随着竞争加剧,一条新的断层线正在浮现:对人工智能的信任。在军事应用和国际安全讨论中,这个问题最为紧迫。军队需要士兵愿意使用且指挥官能够依赖的系统。外交官们需要能够防止事故并使对手安心的框架。关键在于“为设计而信任”等框架能否在技术与治理之间架起桥梁,满足这些需求。
AI的信任问题超出了国防范畴。2025年墨尔本大学和毕马威对47个国家48000人的调查发现,超过半数(约54%)的人对信任AI持谨慎态度。担忧范围从准确性和偏见到情境盲点以及滥用风险。有趣的是,约70%的受访者认为监管对于解决这种不信任至关重要。校准的信任水平至关重要:过度信任可能导致对AI的过度依赖,这本身就存在风险,包括以意想不到的方式产生负面影响,例如损害人类合作;而使用不足则可能意味着放弃其益处。治理必须找到恰当的平衡点。
国家间建立信任对于防止在AI能力和意图上产生误解和误判至关重要。随着AI现已渗透到从政策到实地执行的国防领域,建立信任措施变得至关重要。尽管在负责任军事AI应用和自主武器方面已有若干倡议,治理仍滞后于技术发展。
“为设计而信任”方法旨在通过嵌入框架和原则来应对这些挑战,确保可信度和伦理标准融入从开发到部署和使用的整个AI生命周期。在许多方面,伊曼纽尔·梅钱-克鲁兹等学者为工业界提出的“为设计而信任”框架也适用于国际安全讨论。这个拟议的行业框架涵盖了在负责任军事AI和自主武器讨论中出现的核心原则,特别是“以人为本、透明度和问责制”。因此,本简报认为,为设计而信任关乎系统、组织和治理,以便通过可测试的属性、可执行的过程和可问责的主体,使得依赖是合理的,并且是可证明的。挑战在于,为国际安全构建这样一个全面的框架既需要政治意愿,也需要创造力;没有现成的模式可供各国简单采用。
找出构建这种信任架构的方法,正是确保在国防领域负责任地使用AI以及确保全球稳定所需要的。
本简报探讨了为何信任在AI时代更成为全球安全的基本要素,以及如何将可信度嵌入技术和制度中以减少误判和升级的风险。简报借鉴了AISE会议及其他多边讨论的见解,与会领导人和专家们强调AI正面临“奥本海默时刻”,并呼吁进行紧急监督以防止其在战场上被滥用。简报最后提出了可操作的建议:建立关于军事AI的自愿透明和报告机制,采用人类能动性影响评估以维护人类控制,推行地区风险降低战略,以及发起能力共享倡议。本质上,在军事AI领域实现为设计而信任,既是一项技术努力,也是一项外交努力,其核心是将责任落实于人类和组织。