由于人工智能(AI)的进步,科幻小说与军事战略之间的界限正变得越来越模糊。美国陆军研究实验室最近在模拟军事视频游戏环境中采用 OpenAI 技术进行的实验,就是这种不断演变的格局的证明。虽然利用人工智能加强作战计划的想法并不新鲜,但在战争游戏模拟中应用大型语言模型和生成式人工智能技术,为军事环境中的战略制定和决策提供了一种新方法。
这项实验的核心是《星际争霸 II》,这是一款军事科幻视频游戏,为人工智能聊天机器人提供了展示其战略能力的虚拟战场。美国陆军研究人员关注的是一个相对简单的场景:少量军事单元、对战场的全面了解以及消灭敌军和夺取特定点控制权的明确目标。
研究人员利用 OpenAI 的 GPT-4 Turbo 和 GPT-4 Vision 模型,以及基于旧技术构建的两个人工智能体,开始探索人工智能充当军事指挥官助手的可行性。研究人员向这些人工智能聊天机器人提供了有关战场地形、友军和敌军以及攻防军事战术的详细信息。
结果令人好奇。人工智能助手,尤其是那些基于 OpenAI 的 GPT 模型的人工智能助手,很快就提出了几种行动方案。这些建议让人类 "指挥官 "得以完善人工智能的建议,展示了一种协作式战略制定方法。尽管人工智能模型的伤亡人数多于老式模型,但它们完成任务目标的能力凸显了将人工智能融入军事规划流程的潜在优势。
从视频游戏模拟到现实世界应用的飞跃是巨大的,充满了伦理、法律和实际挑战。新美国安全中心的乔希-沃林(Josh Wallin)强调了将人工智能协助从简化的模拟转化为现实世界中不可预测的冲突的复杂性。依靠人工智能进行军事战略规划的想法引起了人们的极大关注,特别是关于此类应用的可行性和道德影响。
美国陆军研究实验室采取了谨慎的态度,没有对这项研究发表评论,这反映了围绕在军事背景下使用人工智能的敏感性。OpenAI 更新了使用政策,允许某些军事应用,同时禁止那些涉及武器开发或可能造成伤害的应用,这凸显了目前关于人工智能在战争中的作用及其更广泛的社会影响的争论。
该实验还揭示了自动化偏差问题--信任自动化系统的倾向,可能以忽视矛盾证据为代价。软件工程研究所的卡罗尔-史密斯(Carol Smith)警告说,在事关重大的情况下,过度依赖人工智能的建议会带来危险。这凸显了一个严峻的挑战:在军事决策过程中,尤其是在人工智能系统提供战略建议时,确保人类的判断力仍然是最重要的。
随着人工智能的不断发展,其在军事战略及其他领域的潜在应用可能会越来越多。美国国防部的人工智能特别工作组已经确定了许多生成式人工智能的军事用例,这表明他们对进一步探索这项技术有着浓厚的兴趣。不过,安全与新兴技术中心的劳伦-卡恩等专家提醒,不要过早地在敏感或高风险领域部署人工智能,他们指出了该技术目前的局限性,并认为有必要仔细考虑其伦理影响。
美国陆军研究实验室在军事视频游戏模拟中对人工智能的探索打开了一扇通往未来战争的窗户,在未来战争中,人工智能可能会在战略制定和决策中发挥重要作用。然而,从虚拟模拟到现实应用的过程充满了挑战。平衡人工智能的战略优势与道德考量、确保人工监督以及降低自动化偏差的风险,是驾驭这一新领域的关键步骤。
随着人工智能技术的不断进步,必须加强技术创新与伦理责任之间的对话。人工智能彻底改变军事战略--进而改变社会--的潜力是巨大的。然而,当我们站在这个新时代的悬崖边时,明智地使用这种力量的责任从未像现在这样重要。