与人工智能催生冲突混乱新时代的反乌托邦设想不同,人工智能工具直接引发大规模战争的可能性似乎有限。但若政府管控不力,仍存在特定路径可能加剧冲突风险。最值得关注的两类路径是:技术突破导致力量平衡破坏性转变的传统挑战,以及人工智能扭曲人类战略判断、助长误判失算的新型问题。
历史表明,多数技术突破并未根本性改变冲突风险,但仍存在显著例外。印刷术发明助推了欧洲社会与宗教动荡,最终促成1618年“三十年战争”爆发;而核武器则显著抑制了二战后大国战争风险。鉴于先进人工智能(AI)可能引发深远的社会、经济与军事变革,其或将成为影响国际安全的另一项突破性技术(Kissinger, Schmidt, and Mundie 2024)。分析人员需严肃考量人工智能改变国际安全格局、诱发非常规战争的可能性(Mitre and Predd 2025)。
基于数十年关于战争诱因的研究成果(Van Evera 1994),本文审视人工智能加剧大国间战争风险的六种假说。这些假说反映了人工智能对军事、经济和社会的影响破坏国际稳定的不同路径,聚焦于最可信且令人忧虑的机制。我们通过识别各假说成立的关键条件,并评估这些条件协同增加冲突可能性的概率来验证假说。
本研究探讨比现有技术更先进的智能系统后果,假设人工智能最终能在广泛认知任务中可靠匹配人类表现——即技术专家所称的“人工通用智能”(Kahl 2025)。分析显示,人工智能直接引发大规模战争的总体风险较低,尤其当政府采取技术管控措施时。但人工智能仍可能通过破坏力量平衡或扭曲战略判断导致误判升级。值得庆幸的是,审慎的政策干预可有效控制此类风险。
若人工智能赋能的军事能力改变力量平衡,使决策者认为此前无法达成的目标现可企及,则人工智能的进步可能导致战争(Cronin and Kurth Cronin 2024)。影响该情景发生概率的关键条件包括:各国是否认为军事优势足以改变其动武的政治考量、领导人是否认为存在短暂的军事行动“时机窗口”、力量平衡中的新优势能否使其通过非战争的胁迫外交达成目标,以及是否存在必须使用武力的战略目标。然而近期内这些条件同时满足的概率相对较低。
第一,人工智能需为潜在侵略方提供显著军事优势,改变其领导人关于胜算的决策逻辑。这包括考虑攻击拥核大国时不遭受灾难性报复打击的可能性。优势来源可能是催生“超级武器”的技术突破(如瘫痪性首轮网络攻击能力或高智能无人机集群),或更可能是多领域军事任务系统性应用人工智能产生的转型优势。要使人工智能在力量平衡中单方面惠及某国,该国需在技术创新与应用上具备先发优势,否则对手可通过人工智能增强防御抵消其新能力(Plumb and Horowitz 2025)。此外,人工智能亦可通过提升国家经济生产力改变力量平衡——若某国因人工智能驱动的经济繁荣大幅增加国防开支,或凭规模而非技术优势获得决定性军事优势(Aschenbrenner 2024)。
人工智能可能带来的经济军事优势规模仍存争议。重大先发优势风险在以下情景最为突出:人工智能创新速度较快而非较慢、性能提升属能力跃迁而非渐进改良、技术复杂度或成本导致他国自主研发滞后(或至少需较长时间完成军事整合)。
第二,除优势规模外,若优势呈现暂时性则冲突风险最高。这可能迫使领导人相信存在逐渐关闭的“时机窗口”,需在优势消退前发动打击(Van Evera 2001)。领导人最可能在预期人工智能技术快速扩散时感知短暂行动窗口。但极速扩散或使领先国家难有足够时间建立重大先发优势。
第三,要引发战争,该优势不能过大以致弱势方寻求政治解决并做出让步,避免遭强敌军事打击(Fearon 1995)。增强的军事实力可提供胁迫筹码,使国家通过明示或默示威胁达成目标而无需动武。若双方均认同人工智能已决定性改变力量平衡,这种清晰认知反会降低战争概率,尽管军事优势本身并未削弱。
最后,优势国需存在值得发动战争的目标——国家不会仅因预期获胜而攻击他国(Blainey 1988)。
首项假说的必然推论——人工智能将赋予国家新军事优势以助长侵略——可能导致各国诉诸战争以阻止对手获取先进人工智能能力(Hendrycks, Schmidt, and Wang 2025)。若领导人认为人工智能将引发爆发性经济增长与决定性军事优势,则可能担忧对手率先掌握先进人工智能将使其未来具备胁迫或攻击能力。面对“先发制人或坐以待毙”的两难困境,相较于未来抵御对手人工智能赋能的攻击,通过预防性打击延缓对手人工智能发展似乎成为两害相权之轻(Edelstein 2017)。
多重条件可能加剧此类风险,但其协同出现的可能性较低(Burdette and Demelash 2025)。
第一,领导人需预期先进人工智能将引发力量平衡的重大转变。该条件可能成立,因领导人或采信人工智能变革性潜力的设想。但领导人仍面临重大不确定性:人工智能未来具体形态为何?何种水平的先进人工智能会触发重大危机?
第二,领导人需预期人工智能赋予重大先发优势,致使其难以追赶。然历史表明,成为高效的技术跟进者往往比首创者更具战略价值(Ding 2024)。例如,英国虽率先研发坦克,但德国在机械化部队战术运用上取得关键突破。
第三,领导人需预期预防性军事打击能实质性延缓对手人工智能发展(Mueller et al. 2006)。在大国博弈背景下,这意味着需对拥核大国本土的大量敏感民用与科研目标(如人工智能实验室与数据中心)实施打击。此举军事难度极高,且领导人对其延缓对手技术发展的时效存在巨大不确定性(Rehman, Mueller, and Mazarr 2025)。
最后,领导人需确信攻击收益大于成本与风险。如首项假说所述,核威慑、常规武力及网络反制能力或将遏止打击行动——尤其当攻击实际效果存在不确定性时。
该假说存在变体:某国或实现先进人工智能突破,继而动用武力维持技术垄断。若早期迹象表明该技术正兑现其革命性潜力,领导人可能试图独占技术红利并阻挠对手获益。此种更强烈且自信的动机,叠加人工智能赋能的军事优势,或使领导人更倾向采取预防性攻击以维持垄断,而非在技术竞赛初期破坏对手进展。然则,为保持先进人工智能垄断权而对强大对手实施有限预防性打击,仍将引发严重升级风险及其他政治代价。若人工智能确被视作关乎未来经济繁荣与国家安全的变革性技术,受打击国领导人或将被剥夺技术获取渠道视为严峻乃至关乎存亡的威胁。
该假说基于一种观点:人工智能能显著缓解或消除使战争成为高代价、高难度行动的传统因素,包括人员伤亡、经济成本及政治阻力。若这些障碍被消除,拥有先进人工智能赋能军队的国家可能更倾向动用武力实现政治目标。
此论断成立需满足若干条件:
第一,人工智能赋能的无人机与机器人需在危险作战岗位大规模替代人类士兵,使战争预期伤亡率急剧下降。如乌克兰战例所示,在可预见的未来,无人机与机器人更可能作为人类战斗角色的补充而非替代(Watling and Reynolds 2025)。即使无人机在军队结构中核心地位提升可降低伤亡,但这不意味着人员被淘汰或伤亡降至可让领导人轻启战端的水平。
第二,人工智能系统需在本质上比依赖人力更廉价。要使人工智能具备物理行动能力,必须与机器人技术结合。无人机和机器人在特定情境下比有人系统更具成本优势,但其绝对成本并不低廉——尤其按国防规划者设想的大规模部署时。若人工智能赋能的军事能力能缩短战争时长,替代昂贵持久战,或可降低军事行动的人力与物资成本。然而,人工智能增强的自动化生产或提升国家持续部署机器人系统维持长期战争的能力,而累积的人力与经济成本可能随战争延长而攀升。
该假说存在一个特殊但关键的变体:先进人工智能可能削弱核威慑(Aschenbrenner 2024)。尽管核威慑并非万能且无法遏止所有有限侵略,其对国际体系的稳定作用难以被人工智能消除。人工智能或可增强攻击敌方核武库的能力,但同样有助于防御方提升核武生存能力(Geist 2023)。同样,人工智能虽可提升未来防空反导系统效能,但无法使大国免遭核报复——这需要拦截全部来袭核弹头(包括专门为穿透人工智能强化防御而研发的新型载具),而非仅仅多数。最后,尽管存在人工智能网络攻击瘫痪敌方核指控系统的担忧,但鉴于核大国对此类系统安全的高度重视,该情形极难发生。
另一潜在的冲突路径可能源于国内动荡。有观点认为,先进人工智能融入国家经济可能引发大规模失业,进而导致社会失序。理论上,领导人或通过攻击外敌转移民众视线,煽动“旗帜效应”以支持政府。尽管人工智能引发重大经济混乱的可能性较高(Hunter et al. 2023),但此类转移矛盾型战争路径尤其难以成立。虽然领导人可能试图将公众愤怒导向内外敌人而非政府自身,但历史鲜见证据表明其倾向于通过挑起对外战争应对国内动荡(Fravel 2010)。
发动全面战争非但不能缓解领导人的国内政治困境,反可能加剧危机——尤其当危机系人为制造而非真实威胁时。事实上,国内动荡往往促使领导人转向内部,采取激进改革或政治压制。例如大萧条时期,罗斯福总统专注于深远的经济社会政策;即使面临二战级别的重大危机,美国国内仍强烈反对卷入冲突。
该假说存在变体:人工智能或使社会更具侵略性与扩张性。公众可能主动要求政府采取更强硬立场,而非政府转移民众注意力。如一战前德国实力增强时,社会出现要求争取“阳光下的地盘”实施扩张的呼声(Renshon 2017)。若人工智能引发爆发性经济增长,公众或要求将这些红利用于地缘政治优势或领土扩张。然则军事侵略并非彰显地位的唯一途径,且这些经济优势能否创造侵略新机遇,取决于首项假说所述条件——即人工智能颠覆力量平衡创造侵略机遇。此外,人工智能驱动的经济增长或更具稳定性:若社会减少对资源稀缺的忧虑并提升经济自足性,其对国际竞争与冲突的兴趣可能减弱。
另一种可能是,人工智能通过强化公共话语病理(而非经济影响)使社会更具侵略性。包括激化网络回音室效应、煽动对未来的恐惧焦虑、传播虚假信息及鼓励寻找替罪羊。这些皆为现实关切,但尚不清楚先进人工智能会较人类领导人自主行为在何种程度上加剧这些问题(Narayanan and Kapoor 2025)。人工智能对社会影响的最终效果,取决于对技术本身、应用方式及政府转型管理的多重假设。人工智能如何重塑社会偏好仍存在高度不确定性,故该假说变体成立性存疑。
当人工智能在《终结者》等电影中引发战争时,常因领导人将军事控制权委托给蓄意采取恶性行动的机器。一个反乌托邦色彩较弱但更可信的假说认为,人工智能可能通过意外或未授权行动触发战争。若人工智能代理对自主军事系统等能力拥有足够控制权,危机期间的失控事件可能导致局势升级(Danzig 2018)。例如自主无人机可能侵入对手领空,或自主水下航行器攻击敌方潜艇。此类失控事件既可能因对手操纵人工智能系统引发,也可能源于技术固有复杂性导致难以预测其在动态环境中的行为。
但支撑该假说的条件难以成立。首先,人工智能需较传统技术增加事故发生率。这可能成立,因人工智能增加系统复杂性进而提升事故风险;但足够先进的人工智能或比人类操作及当前自动化水平更具可靠性与安全性(Sagan 1993)。
其次,所导致的事故需达到足以触发战争的程度。历史上多数军事事故代价由己方承担(Herdman 1993),针对对手的意外攻击多为局部事件,升级潜力有限。
最后,领导人需在严重损害他国的事故后未能找到缓解紧张的方法。鲜有历史证据表明领导人会意外卷入战争,部分因其通常在战争不符合利益时有效降级危机(Lin-Greenberg 2024)。例如两伊战争期间,伊拉克战机误将美国“斯塔克”号护卫舰识别为伊朗油轮实施攻击,致37名水兵丧生(Crist 2012)。尽管造成重大伤亡,双方仍成功控制事态升级。
令人鼓舞的是,各国正通过正式与非正式保障措施管理高风险领域的人工智能事故。例如2024年中美尽管存在分歧,仍同意保持人类对核武器使用决策的控制以降低事故风险(Renshaw and Hunnicutt 2024)。
最终,人工智能或通过间接方式影响人类战略决策导致冲突。过度依赖人工智能获取情报与决策支持的领导人,可能加剧误解并助长不稳定性。
该路径导致战争的核心条件是:人工智能提供的战略评估或建议增加了侵略或误判概率。无证据表明先进人工智能本身比人类更倾向冲突,但这些支持工具仍可能因“幻觉”——即大型语言模型感知不存在模式生成荒谬或虚构输出——无意间导致误解。
或因其对局势及对手行为的错误推断造成认知偏差。领导人可能显现“自动化偏见”,过度信任人工智能输出,假设其具有人类顾问所不具备的客观性与准确性(O’Hanlon 2025)。这可能使领导人对威慑核心要素(如对手意图、报复概率、战争胜算)产生无根据的盲目自信。
此外,人工智能系统可能有意或无意地强化领导人既有偏见。不难设想人工智能将构建类似俄罗斯2022年侵乌前或美国2003年侵伊前的决策回音室(Sonne et al. 2022; Mazarr 2019),即使评估缺乏现实依据仍强化领导人关于存在可操作“时机窗口”的信念。
若领导人担忧对手利用人工智能加速决策,其决策时间压力将加剧。决策内容与时间线相互关联:时间压力越大,领导人批判性审视人工智能信息的可能性越低(Husain 2021)。然而人类自身存在加剧冲突的心理偏见(Kahneman and Renshon 2009)。若设计与训练数据得当,人工智能或可缓解而非加剧偏见。先进人工智能可通过三大优势提供优于人类顾问的洞见:更精准快速整合信息助益理解快速演变的危机(Paterson 2008);在信息模糊时清晰传达关键不确定性与竞争性解读(Jervis 2006);识别非武力达成目标的途径(Plokhy 2021)。人工智能还可传递人类顾问不愿提及的负面信息——尽管最需此种坦诚的领导人最不可能获得直言进谏的智能顾问。
人工智能决策支持工具的总体效果取决于技术成熟度、政府保障机制及领导人信任度等变量。但该假说揭示了人工智能增加战争风险的可信路径——尤其当政府实施不当技术方案时。若以正确思维模式使用人工智能工具,人类可做出更优决策;但若系统设计使用存在疏漏,决策质量或将显著恶化。
综合评估六项假说表明,反乌托邦设想夸大了人工智能点燃国际冲突新浪潮的风险。发动战争的根本动因在于政治而非技术(Lieber 2005)。先进人工智能等新技术可通过军事、经济和社会路径产生政治效应;但其影响力受制于诸多其他因素——在人工智能缺位时,这些因素多倾向于克制,偶尔将国家推向战争。人工智能固然可能在"战争导火索"中发挥作用,但其本身不太可能成为决定性诱因。尽管如此,人工智能潜在的"火上浇油"效应仍要求各国政府采取预防性政策以管控其使用时机与方式。
鉴于人工智能仍属新兴技术,相关结论需注意三点局限:首先,远期预测本就困难重重,人工智能的发展轨迹及其对全球军事、经济和社会的潜在影响存在不确定性,更增预测难度;其次,不同风险路径可能以动态且不可预见的方式相互交织,即使单一路径风险较低,其叠加效应仍可能助长不稳定。
本分析聚焦国家间重大冲突诱因,但人工智能对国家能力薄弱国家的社会与经济冲击,或对内战构成更显著风险(Rustad 2024)。此类内部冲突致死率可能超过国家间战争,且存在跨境升级隐患。
在探讨人工智能削弱稳定性的同时,需关注其净效应或趋向增强而非侵蚀国际稳定。研究者可运用相同框架分析积极面:人工智能促进稳定与和平的假说有哪些?实现积极愿景需满足哪些条件?
政府可通过审慎政策管理多数人工智能风险。具体而言,研究者与决策者应特别关注最具挑战的两类假说:人工智能导致力量平衡破坏性转变的传统风险,以及扭曲人类战略判断的新型风险。
为防范军事平衡变化诱发决策者产生过度自信,政府首需避免技术突袭。这不仅要求将人工智能专业能力纳入情报机构并监测对手技术进展,更需追踪预判人工智能对对手认知的广泛影响及其可能解锁的军事能力。政府还应考量抵消对手人工智能优势的反制措施,例如研发制造"战争迷雾机器"——通过规划欺骗战术与协调机器人诱饵,抵消竞争者在人工智能传感器融合领域的进步(Geist 2023)。军队需确保成为人工智能应用的快速跟进者(若非领导者),但若管理失当,追求速度或牺牲安全性与战备状态。
决策者还需制定政策,防范人工智能加剧误判与升级的风险。个体层面,领导人须以对待人类顾问的审慎态度看待人工智能生成信息;制度层面,政府可设计风险管控系统:要求人工智能决策支持工具的战略输出必须包含事实依据及不确定性评估;设立"红队"批判性审查人工智能结论;赋予人工智能设计弹性方案争取决策时间的任务。
加强危机沟通机制(如在利益可能冲突的国家间建立热线)亦具价值,尤其在21世纪信息源可靠性存疑时。此类措施或需牺牲决策速度与简洁性——当代领导人期望未来人工智能提供的优势——但为管控人工智能诱发不稳定的风险,此种权衡实属必要。