在世人的记忆中,2022 年可能是生成式人工智能(AI)之年:在这一年里,大型语言模型(LLM)(如 OpenAI 的 GPT-3)和文本到图像模型(如 Stable Diffusion)标志着社交媒体操纵潜力的巨大变化。针对对话进行了优化的 LLM(如 ChatGPT)可以大规模生成自然、人性化的文本内容,而开源的文本到图像模型可以生成任何(真实或想象的)逼真图像,并且可以大规模生成。利用现有技术,美国对手可以建立数字基础设施来制造逼真但不真实(虚假)的内容,从而为类似的逼真但不真实的在线人类角色推波助澜:Twitter、Reddit 或 Facebook 上的账户看似真实,实则是由人工智能生成的合成建构,并推进符合这些政府利益的叙事。
在本视角中,作者认为无处不在、功能强大的生成式人工智能的出现构成了潜在的国家安全威胁,即美国对手滥用的风险(尤其是用于操纵社交媒体),美国政府和更广泛的技术和政策界现在就应积极应对。作者重点以中国作为潜在“威胁”的示例,但各种行为体都可能利用生成式人工智能操纵社交媒体,包括技术成熟的非国家行为体(国内和国外)。本视角中讨论的能力和威胁很可能也与俄罗斯和伊朗等其他已经参与社交媒体操纵的行为体相关。
选择社交媒体操纵策略和生成人工智能的潜在影响