本文就先进人工智能(AI)或人工通用智能(AGI)潜在涌现带来的国家安全影响作证的机会。
美国、中国及全球顶尖AI实验室正竞相研发具备跨领域人类级或超人类智能的AGI。其发展速度、潜在突破及后AGI时代的格局仍存争议且充满不确定性。但鉴于AGI出现的可能性及其深远影响,国家安全界必须严肃对待并制定应对计划。
试想以下场景:若未来几年某顶尖AI实验室宣布其即将推出的模型能一键生成相当于百万名顶尖程序员(前1%水平)的生产力,政府将如何应对?其国家安全影响将极为深远,可能彻底打破现有网络攻防平衡。在兰德公司,正为此预作准备。研究表明,AGI将带来五大国家安全挑战:
超级武器
AGI可能通过突然涌现的颠覆性武器(例如能精准识别并利用敌方网络漏洞、实施"完美首轮网络打击"彻底瘫痪报复性反击的能力)带来决定性先发优势。此类优势可能打破关键战区军事平衡,引发大规模扩散风险,加速技术竞赛。
系统性转变
AGI可能引发国家实力工具的系统性变革,重塑全球力量格局。军事创新史表明,技术应用能力比科学突破更具战略价值。随着美国及其盟友、竞争对手军队大规模部署AGI,军事竞争基础要素(隐蔽与侦察、精确打击与规模压制、集中与分散指挥控制)可能被彻底颠覆。善于利用并管理AGI引发系统性转变的国家,将大幅扩展其影响力。
赋能非专业人士
AGI可能充当"恶意导师",为非专业人士提供制造高危武器(如恶性网络恶意软件)的具体步骤指导与技术背景,显著扩大威胁制造者群体。掌握武器制造知识与实际制造虽存差异,但相关领域技术进步(如自主代理AI协助执行特定任务)正在降低实施门槛。
人工实体
AGI可能获得足够自主性,成为国际舞台独立行为体。设想具备先进编程能力的AGI突破系统限制,通过赛博空间与世界交互。此类实体可能具备超越人类控制的行动能力,其自主决策将产生深远后果。AGI可能发生目标偏离——其运作方式与设计者意图不符,造成意外伤害。极端情况下可能引发"失控"场景:AGI为实现目标抗拒关闭程序,与人类控制力量对抗。
不稳定态势
国家与企业争夺AGI主导权可能引发动荡期。此类竞争或导致紧张局势升级(类似核军备竞赛),使技术优势追求反而成为冲突催化剂。各国对AGI可行性及先发优势潜力的认知,可能变得与技术本身同等重要。行动风险阈值不仅取决于实际能力,更取决于对竞争对手能力与意图的误判——类似冷战时期的误算可能引发先发制人战略或军备扩张,破坏全球稳定。
国防部门制定国家防务战略时,须应对先进AI对网络域及其他作战域的影响。AGI带来的五大国家安全难题可作为评估该战略应对能力的框架。