大型语言模型(LLMs)由于其在语言理解和生成方面的卓越能力,正在成为现代通信网络不可或缺的一部分。在这些网络的背景下,由于经常需要使用第三方数据和计算资源,后门攻击的风险变得非常重要。这样的策略可能会使网络中的模型暴露于恶意操纵的训练数据和处理中,为攻击者提供了一个机会,将一个隐藏的后门嵌入到模型中,这被称为后门攻击。LLMs中的后门攻击是指在LLMs中嵌入一个隐藏的后门,使模型在良性样本上正常执行,但在被毒害的样本上表现下降。在通信网络中,可靠性和安全性至关重要,这一问题尤为令人担忧。尽管关于后门攻击有大量的研究,但在通信网络中使用的LLMs的背景下,仍缺乏深入的探索,而且目前还没有关于这种攻击的系统性综述。在这次调查中,我们系统地提出了一个LLMs在通信网络中使用的后门攻击的分类法,将其分为四个主要类别:输入触发、提示触发、指令触发和演示触发攻击。此外,我们对网络领域内的基准数据集进行了全面分析。最后,我们确定了潜在的问题和尚未解决的挑战,为未来增强通信网络中LLMs的安全性和完整性的研究方向提供了有价值的见解。

https://www.zhuanzhi.ai/paper/5a5536928883a6ab3c18866ceeeac87f

成为VIP会员查看完整内容
29

相关内容

对抗机器学习在网络入侵检测领域的应用
专知会员服务
35+阅读 · 2022年1月4日
图对抗防御研究进展
专知会员服务
39+阅读 · 2021年12月13日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
96+阅读 · 2021年1月17日
专知会员服务
109+阅读 · 2020年5月21日
【NeurIPS 2022】扩散模型的深度平衡方法
专知
0+阅读 · 2022年11月6日
综述 | 分布式GNN训练算法和系统,35页pdf
图与推荐
5+阅读 · 2022年11月2日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
VIP会员
相关VIP内容
对抗机器学习在网络入侵检测领域的应用
专知会员服务
35+阅读 · 2022年1月4日
图对抗防御研究进展
专知会员服务
39+阅读 · 2021年12月13日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
96+阅读 · 2021年1月17日
专知会员服务
109+阅读 · 2020年5月21日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
微信扫码咨询专知VIP会员