在世人的记忆中,2022 年可能是生成式人工智能(AI)之年:在这一年里,大型语言模型(LLM)(如 OpenAI 的 GPT-3)和文本到图像模型(如 Stable Diffusion)标志着社交媒体操纵潜力的巨大变化。针对对话进行了优化的 LLM(如 ChatGPT)可以大规模生成自然、人性化的文本内容,而开源的文本到图像模型可以生成任何(真实或想象的)逼真图像,并且可以大规模生成。利用现有技术,美国对手可以建立数字基础设施来制造逼真但不真实(虚假)的内容,从而为类似的逼真但不真实的在线人类角色推波助澜:Twitter、Reddit 或 Facebook 上的账户看似真实,实则是由人工智能生成的合成建构,并推进符合这些政府利益的叙事。

在本视角中,作者认为无处不在、功能强大的生成式人工智能的出现构成了潜在的国家安全威胁,即美国对手滥用的风险(尤其是用于操纵社交媒体),美国政府和更广泛的技术和政策界现在就应积极应对。作者重点以中国作为潜在“威胁”的示例,但各种行为体都可能利用生成式人工智能操纵社交媒体,包括技术成熟的非国家行为体(国内和国外)。本视角中讨论的能力和威胁很可能也与俄罗斯和伊朗等其他已经参与社交媒体操纵的行为体相关。

选择社交媒体操纵策略和生成人工智能的潜在影响

成为VIP会员查看完整内容
63

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《利用深度学习生成类噪声通信代码》2023最新报告
专知会员服务
31+阅读 · 2023年9月26日
《网络战仿真中的多智能体强化学习》最新42页报告
专知会员服务
43+阅读 · 2023年7月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
395+阅读 · 2023年3月31日
Arxiv
12+阅读 · 2019年3月14日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员