博弈论长期作为网络安全领域的基础工具,用于测试、预测和设计攻防双方的策略互动。大型语言模型(LLM)的兴起为计算机系统安全带来新工具与挑战;本研究探讨经典博弈论框架能否有效捕捉LLM驱动智能体与机器人的行为特征。通过构建可复现的博弈论LLM智能体框架,我们检验两种典型场景——单次零和博弈与动态囚徒困境——测试LLM是否收敛于预期结果或受内置偏差影响产生偏离。实验涵盖四种前沿LLM模型及英语、法语、阿拉伯语、越南语与汉语五类自然语言,以评估语言敏感性。研究发现:最终收益受智能体特性(如人格特质或重复博弈认知)显著影响;收益结果对语言选择呈现意外敏感性——警示LLM在网络安全应用中需规避无差别部署,呼吁开展深度研究(因跨国部署可能引发行为异变)。研究同时采用量化指标评估LLM智能体的内在一致性与跨语言稳定性,为安全应用场景优选稳定模型提供决策依据。

据最新报告,网络威胁成本预计未来数年将突破10万亿美元[1][2]。除企业、公民与政府机构经济损失外,网络攻击更使数字社会面临基础设施崩溃风险——该风险随信息技术全球扩散日益严峻。学界与业界持续开发新型防御方案应对多样化网络攻击[3]之际,博弈论已成为研究攻防策略互动的强有力理论框架[4-8]。该理论将双方战略互动形式化(目标均为最大化自身收益[9]),通过捕捉攻防策略选择评估防御(或攻击)机制有效性。相较于纯技术路径,博弈论额外考量网络攻击者与安全层交互的成本收益,揭示安全与效率的固有冲突需动态平衡[10],并基于成本效益权衡优化特定条件下的网络弹性[11]。其应用涵盖入侵检测、风险评估、信号干扰与窃听,延伸至机制设计及安全投资(含网络化应用)[12],提供数学证明、防御系统鲁棒性分析及分布式解决方案等核心工具[4][7]。

伴随传统信息技术,大型语言模型(LLM)作为颠覆学术、工业与社会范式的强大AI应用迅速崛起[13-15]。网络安全领域快速吸纳LLM技术,其作用呈双轨发展:场景生成器(建模范畴[16])与网络安全场景内智能体(代理作用域[17][18][8])——后者既可扮演威胁源亦可作为防御增强体[19]。然而LLM对网络安全应用的系统性影响研究尚处萌芽阶段,亟需建立统一框架解析攻防LLM智能体的新兴策略。博弈论为此提供天然理论基石,近期研究视角主张采用生成式AI开发战略智能体以构建可靠网络安全应用[20][21]。

此类构想虽具吸引力与潜力,其核心挑战在于博弈论、网络安全与LLM的三重交叉:当前对交互LLM的实际行为认知匮乏。关键问题包括:LLM行为是否契合博弈论预测(进而能否可靠预测博弈结果)?若出现新兴不可预测结果,其与开发者目标(攻防双方)的代表性如何?哪些特征主导此类结果?例如在模拟AI生态发展的博弈中[22],仅特定LLM(含GPT/Gemini/Mistral等流行模型)在限定条件下符合博弈论预测[23][24];其他研究表明即便在传统博弈场景中LLM亦偏离理论预测[25-27]。因此亟需验证:LLM在网络安全博弈场景的行为模式、特定LLM是否具备更高可靠性、哪些因素或偏差可能挑战基于博弈论的网络威胁分析。

本研究通过首次探究LLM战略智能体在两大网络安全经典博弈场景的表现回应上述问题:静态零和博弈(应用于信号干扰与窃听[28]、硬件木马[29]等场景建模)与动态囚徒困境(用于多跳网络自私行为[30]、国家级网络入侵[31]研究,构成信息域复杂关系建模基础[32])。采用用户友好型可复现框架FAIRGAME[33]模拟博弈过程,测试多LLM服务商及配置方案。研究发现:隐藏偏差导致LLM博弈输出偏离纯博弈论结果;商业LLM呈现差异化行为模式(表明服务商选择非中性——将直接影响研究与应用);开发防御系统时需审慎考量LLM服务商选择。

图1:模拟与分析工作流程。选定博弈模型后,通过FAIRGAME框架(虚线框内为框架流程;图示改编自[50])将其实例化为LLM形式:用户定义的配置文件与模板文件指定博弈设置及特征参数作为输入;框架自动整合信息并通过调用目标LLM(灰色模块区域)运行博弈;最终输出回合历史记录、终局收益及指定度量指标以供分析。

成为VIP会员查看完整内容
1

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《混合专家模型推理优化技术综述》
专知会员服务
44+阅读 · 2024年12月21日
《人工智能对战略和业务决策的影响》
专知会员服务
58+阅读 · 2023年12月17日
【2022新书】深度学习归一化技术,117页pdf
专知
28+阅读 · 2022年11月25日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
基于深度学习的数据融合方法研究综述
专知
34+阅读 · 2020年12月10日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
477+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
173+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员