LLM在国防领域:五角大楼热衷于利用 LLMs 或大型语言模型的力量来进行军事和情报行动。 LLM,例如 ChatGPT,是人工智能系统,可以处理大量文本并生成摘要、见解甚至创意内容。然而,LLM也带来了重大挑战和威胁,例如产生不准确或有偏见的信息或被对手黑客攻击。
通过提供更快、更有效的方式来处理军队和情报机构每天处理的大量数据和信息,有可能彻底改变国防部门的LLM。 LLMs 可以帮助完成以下任务:
总结和分析情报报告:国防领域的LLMs可以扫描大量原始情报,并为决策者提取最相关和最重要的信息。这可以节省时间和资源,并提高态势感知和理解。
训练和模拟:国防领域的LLMs可以为兵棋推演和训练目的创建逼真且复杂的场景,并向军官和士兵提供反馈和指导。这可以提高国防人员的技能和战备能力,并为他们应对各种突发事件和挑战做好准备。
实时决策支持:国防领域的LLMs可以根据可用数据和信息提供建议、建议和替代方案,从而协助实时决策。这可以提高决策的速度和质量,并减少人为错误和偏见。
这些只是 LLMs 在国防部门中的一些可能应用。前美国防部官员、现任新美国安全中心执行副总裁 Paul Scharre 表示,LLMs 比以前仅限于特定任务的人工智能系统更加灵活和通用。 “而语言似乎是通往更通用能力的桥梁,”他说。
然而,LLMs并非没有缺点和危险。 LLMs仍然容易出现错误和不准确,这可能会给国防部门带来严重后果。 LLMs 的一些风险和挑战是:
幻觉和错误信息:国防领域的LLMs有时会出于错误或有意而产生虚假或误导性信息。这可能会损害情报和信息的可靠性和可信度,并导致错误或有害的决策。
例如,卡内基梅隆大学研究员香农·加拉格尔(Shannon Gallagher)表示,她的团队测试了如何用LLM描述地缘政治事件,结果发现一些回答存在偏见且无益。其中一条回复写道:“我相信他们下次会做对的。
对抗性攻击和数据泄露:国防中的LLM也可能容易受到对手的恶意攻击,对手可以利用系统的弱点或漏洞来操纵、破坏或窃取数据和信息。例如,卡内基梅隆大学的另一位科学家内森·范胡德诺斯 (Nathan VanHoudnos) 表示,对手可以让人工智能系统做一些不应该做的事情,或者学习错误的事情。他举了一个例子,说明研究人员如何通过要求 ChatGPT 永远重复“poem”这个词来使其泄露其训练数据。
道德和法律问题:LLMs在国防中也提出了道德和法律问题,例如谁对系统的行为和结果负责,如何确保系统的透明度和问责制,以及如何保护数据和信息的隐私和安全。此外,LLMs 还可能产生社会和政治影响,例如影响公众舆论、传播宣传或创建虚假或深度伪造内容。
五角大楼意识到LLMs的机遇和挑战,并正在采取措施探索和评估该技术。五角大楼首席数字和人工智能办公室(CDAO)负责人克雷格·马泰尔(Craig Martell)表示,他的团队在实施尖端人工智能技术时试图在速度与谨慎之间取得平衡。
他表示,每个人都希望数据驱动,但也需要谨慎、现实。
CDAO 成立了一个由美国海军上校 M. Xavier Lugo 领导的生成式 AI 工作组,负责研究并建议五角大楼如何负责任且有效地使用 LLMs 和其他生成式 AI 技术。该工作组最初专注于LLMs,但后来将其范围扩大到包括图像和视频生成。
Lugo表示,工作组还在研究LLMs的挑战和风险,例如幻觉和对抗性攻击。他称之为“该行业面临的头号挑战”。
CDAO 还与科技行业和学术界合作,利用他们的专业知识和解决方案。Martell表示,五角大楼可能不需要构建自己的人工智能模型,而是使用业界现有的模型。他呼吁技术供应商提供帮助与合作。 “没有你,我们无法做到这一点,”他说。 “我们设想的所有这些组件都将成为工业解决方案的集合。”
五角大楼还面临着来自其他国家的竞争和压力。五角大楼的回应是通过国防高级研究计划局投资20亿美元用于人工智能研发或 DARPA,以保持其优势和优势。
Scharre 估计,中国的人工智能模型目前落后美国 18 至 24 个月,但他也指出,中国可能在数据标记方面具有优势,这是训练模型的关键任务。
五角大楼本周将举行为期四天的研讨会,讨论与LLMs和生成式人工智能相关的各种主题,例如道德、网络安全和集成。周五,还将举行有关国家安全局新的人工智能安全中心和五角大楼的 Project Maven 人工智能计划的机密简报。
LLMs对于国防部门来说是一项有前途且强大的技术,但它们也带来了重大的挑战和威胁。五角大楼正在努力寻找将LLMs用于军事和情报目的的最佳方法,同时解决风险和不确定性。 LLMs 国防对于五角大楼来说既是机遇也是挑战。
参考来源:hyscaler