GPT开源模型正于美军敏感计算机系统进行测试。

今年8月OpenAI发布数年来首款开放权重模型时,关注者不仅限于科技公司。美国军方与国防承包商看到了将其用于高保密级作战行动的可能性。部分军事供应商透露,初步测试表明OpenAI工具在预期能力方面仍落后。

人工智能翻译公司Lilt承接美军外国情报分析合约。由于该软件处理涉密信息,必须部署于政府服务器并通过"气隙隔离"方式离线运行。Lilt以往需自研AI模型或采用Meta的Llama、谷歌的Gemma等开源方案,因OpenAI模型此前仅限在线调用且闭源,始终被排除在选项之外。

ChatGPT制造商新推出的开放权重模型GPT-OSS-120B与GPT-OSS-20B改变了这一局面。两者均支持本地化部署,用户可自由安装于自有设备且无需云端连接。通过获取模型权重(决定其响应不同指令的关键参数),用户可针对特定需求进行定制。OpenAI重返开源市场可能最终提升竞争强度,为军方、医疗企业等涉密数据处理机构带来性能更优的系统。麦肯锡近期对700名企业高管的调研显示,超半数受访者称其机构正在使用开源AI技术。不同模型基于训练差异各具优势,机构常组合使用多个模型(含开放权重模型)以确保多场景下的可靠性。

特朗普政府沿用的"战争部"(即国防部)数字与人工智能首席官道格·马蒂透露,五角大楼计划将生成式AI融入战场系统与审计等后勤职能。他表示部分应用需采用非云端依赖型模型:能力必须具备适应性与灵活性。OpenAI未回应关于其开源模型国防应用的置评请求。去年该公司取消了针对军事战争应用的广泛禁令,此举引发活动人士对AI军事化危害的批评。

对OpenAI而言,提供免费开源模型可能带来多重收益:低门槛访问有助于培育更庞大的技术专家社区;因用户无需注册为正式客户,其可秘密进行操作——这使OpenAI得以规避针对潜在争议性客户(如军方)的批评。今年早些时候,马蒂所在的五角大楼部门与OpenAI、马斯克的xAI、Anthropic及谷歌达成了为期一年、单笔最高2亿美元的协议,旨在为包括自动化作战工具在内的不同用途开发AI系统原型。在OpenAI新品发布前,谷歌是唯一提供尖端开源模型选项的科技合作伙伴,其他企业仅授权云端运行且无法达到开源模型同等定制度的模型。

Lilt首席执行官斯宾塞·格林举例说明应用场景:军事分析师可输入"翻译这些文件至英文并确保零错误,随后由高超声速领域首席专家复核"的指令。该公司针对政府应用训练的专有模型负责翻译,谷歌Gemma当前负责自动化分配信息至模型、分析师及其他团队,以缓解语言专家短缺与数据处理积压问题。OpenAI最新开源模型尚未完全契合Lilt需求:其仅支持文本处理,而军方需同时处理图像与音频;该模型在部分语言场景及算力受限环境下表现不佳。但"GPT开源模型正引发激烈竞争,选项越多越好。"

其他军方合作企业称GPT开源模型测试效果良好,但尚未发现五角大楼有任何项目超越演示阶段。Vector 35联合创始人乔丹·维恩斯表示:"尚处早期阶段",该公司向五角大楼提供逆向工程工具并已集成GPT开源模型。根据EdgeRunner AI十月份发布的论文,该公司为军方开发不依赖云端连接的虚拟个人助理,通过对GPT开源模型注入大量军事文档调整后已达到适用性能。首席执行官泰勒·萨尔茨曼表示,美国陆军与空军将于本月开始测试优化后的模型。

参考来源:https://www.wired.com/story/open-ai-artificial-intelligence-open-weight-model/

成为VIP会员查看完整内容
18

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
美空军在高级兵棋推演中集成人工智能
专知会员服务
16+阅读 · 11月26日
构建新大脑:将军事院校转型为AI作战实验室
专知会员服务
20+阅读 · 8月28日
中文版 | 美军对扩展现实技术的军事应用探索
专知会员服务
21+阅读 · 6月22日
中文版 | 生成式AI正成为美军的情报参谋
专知会员服务
36+阅读 · 4月13日
支持敏捷作战部署的 “枢纽和辐条 ”建模
专知会员服务
23+阅读 · 2024年9月27日
【ICML2023】POUF:面向提示的大型预训练模型无监督微调
专知会员服务
39+阅读 · 2023年5月18日
DeepMind开源最牛无监督学习BigBiGAN预训练模型
新智元
10+阅读 · 2019年10月10日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
精品教材-《Grokking深度学习》分享
深度学习与NLP
13+阅读 · 2019年1月19日
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
493+阅读 · 2023年3月31日
Arxiv
177+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员