2022 年 3 月,乌克兰网站上发布了一段假视频,内容是乌克兰总统沃洛德梅尔-泽连斯基(Volodymyr Zelensky)命令士兵放下武器。该视频还出现在 Facebook、Twitter、YouTube 和许多俄罗斯频道上。2023 年 11 月,社交平台 Telegram 上也出现了一段类似的视频,视频中乌克兰武装部队首脑瓦列里-扎卢日尼(Zaluzhny)将军也发表了类似的讲话。其他伪造的泽连斯基视频显示他打着纳粹标志并出现在游行队伍中。人们普遍认为这些假视频是由俄罗斯制作和传播的,它们反映了利用先进的信息技术手段暗中影响战争,并塑造有利于制造方广泛信息环境。

随着深度伪造(即由人工智能生成的人造图像)以及可操控数字媒体的迅速扩散,这种状况只会更加恶化。随着人工智能的进步,深度伪造已经从原始变得高度逼真,而且只会越来越难以分辨。(附录中提供了生成合成人工制品的一些流行工具的代表性列表)。

人工智能的这种扩散为国家行为者利用深度伪造达到国家安全目的提供了无与伦比的机会。除 Zelensky 和 Zaluzhny 视频外,深度伪造技术在政治和国际冲突中的应用也不胜枚举。2023 年 5 月,深度伪造视频声称库尔德斯坦工人党(PKK)恐怖组织支持土耳其总统的主要反对党候选人凯末尔-基利奇达罗格卢(Kemal Kilicdaroglu)。另一起针对反对党候选人的深度伪造事件导致该候选人退出总统竞选,这次伪造的内容涉嫌色情。2024 年 1 月,一个伪造乔-拜登总统声音的机器人电话建议新罕布什尔州居民不要在总统初选中投票。有报道称,委内瑞拉政府利用深度伪造技术(特别是附录中显示的 Synthesia 工具)生成了新闻主播的深度伪造音像制品,以光鲜亮丽的语言描绘委内瑞拉的经济。

据报道,Synthesia 产品还被用于生成支持布基纳法索 2022 年政变的视频。最初的版本允许用户使用自己的视觉肖像或化身,以被描绘者的声音生成视频。最近的更新版本可以在几分钟内将 "基于文本的来源(输入)转换成完整的合成视频"。然而,不法分子可能会利用类似技术生成未经同意的个人的高度逼真视频。因此,政治家、军事领导人和其他人迟早会通过武器化的音频和视频被诬告参与了他们从未实施过的行为。这些 "深度伪造 "可能包括捏造演讲、伪造谋杀和其他挑衅行为。

从积极的方面看,"深度伪造 "也被用于各种合法目的,在此被称为 "有益的深度伪造"。其中一个例子是足球巨星大卫-贝克汉姆(David Beckham)的一组深度假新闻,他被塑造成支持反疟疾信息的形象,并在其中用多种外语讲话;视觉内容是真实的,但音频不是。这些由 Synthesia 制作的信息可能是在征得贝克汉姆同意后生成的。印度一位政治家此前也曾利用类似的想法,用自己的声音用 20 种语言制作了自己政治演讲的深度伪造视频,使他能够更有效地分享自己的政治信息。

不管是有益还是有害,深度伪造的诱惑是否会让政府无法抗拒?如果以过去为鉴,答案似乎是肯定的。长期以来,Photoshop 和类似工具可以轻松编辑图像,而深度伪造则将这一现象推向了一个新的高度。2022 年 9 月,有报道称美国军方使用伪造的 Twitter、Facebook 和 Instagram 账户在中亚和中东宣传亲西方的信息。2023 年 2 月,泄露的文件显示,美国军方可能正在积极寻求开展秘密的海外影响力活动,利用深度伪造来 "通过非传统渠道产生信息和影响行动"。

用不了多久,包括美国在内的主要国家就会开始或至少考虑使用深度伪造来达到目的。本文探讨了可能使用深度伪造的假想情况,并认为,如果没有一套清晰明确的防范措施,考虑到拟由政府管理的深度伪造行动的利益和风险,就不应使用深度伪造

有必要对国家假想的深度伪造活动的短期利益与长期风险之间的权衡进行公正的评估。此外,即使具体的深度伪造或深度伪造活动的细节是保密的,也需要一个透明和公开阐明的程序来进行此类评估。为此,本文重点回答两个基本问题:

  • 当政府机构考虑使用深度伪造来推进其任务时,应该问哪些正确的问题?
  • 谁应该负责提出这些问题,谁应该批准或拒绝使用深度伪造或开展深度伪造活动的请求?当考虑在军事和情报机构中使用深度伪造时,这些人应该使用哪些程序和管理机制?

为了回答这些问题,本文提出了政府可能面临的五种与安全相关的假设情景。作者采访了六位在人工智能技术和国防领域拥有专业知识的领导人。其中包括一名退休的美国将军、一名退休的美国情报机构负责人、一名从事虚假信息和技术工作的欧盟智库领军人物、一名科技公司高级主管、一名来自亚洲的退休将军,以及一名白宫和国家安全委员会(NSC)的前高级律师。作者与这些专家就上述 "是什么 "和 "谁 "的问题进行了讨论。本报告总结了作者的研究方法和研究结果。

本文认为,政府在部署深层伪造之前应考虑几个问题。首先,"深度伪造 "可能有多大效果,尤其是在有其他方法可用的情况下?其次,深度伪造的受众范围是小范围的(如外国恐怖组织的内部圈子)还是大范围的(如整个国家或政府本国的公民)?第三,深度伪造是否会伤害无辜平民,扭曲他们对重要问题的看法?第四,拟议的深度伪造使用是否符合适用的国际法?第五,深度伪造描绘的是真正杰出和有影响力的人物,如总统、宗教或社会领袖,还是不太重要的人物?第六,"深度伪造 "是针锋相对过程的一部分,还是为了保护一国人民免遭直接伤害,抑或是另有目的?最后,"深度伪造 "有多大可能被追溯到本国,从而对政府与本国人民的关系产生深远影响?为了回答这些问题,作者建议采用 "deepfake Equities "程序,让一系列利益相关者共同决定是否应该使用深度伪造,最初的假设是,一般来说,不应该使用deepfake。

政府面临的潜在风险

本报告的两位作者在上一份报告中详细介绍了在冲突环境中使用深度伪造技术的可能性及其成本和风险。对政府而言,有几项风险尤其值得注意。国家民众对线下和线上媒体及新闻来源的信任丧失将是首当其冲的受害者,这将使对手更容易散布虚假信息,分裂目标人群,并使反政府的国内行动者更容易利用深度伪造来降低公众对政府的信任。这种信任的丧失反过来又可能让对手影响选举,减少对目标国家军事和外交活动的支持,鼓励暴乱和内部冲突,左右股票市场等等。由于政体依赖于开放的交流和知情的选民,任何干扰这些理念的行为--如深度伪造--都应受到关注。

使用深度假新闻的第二大长期风险是使用假新闻的政府丧失公信力。一旦一国政府被可信地指控使用谎言作为国家政策的工具,那么他们在国内外发表的任何声明的价值都可能在数年甚至数十年内大打折扣。

第三,对手可能会从 "骗子红利 "中获益,他们可以通过声称信息是假的来解释腐败或滥用权力的真实证据。

成为VIP会员查看完整内容
33

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
中文版《下一代拦截器现状报告》
专知会员服务
49+阅读 · 2023年7月28日
《2035年战争特征》美陆军30页报告
专知会员服务
203+阅读 · 2023年4月18日
《审视英国的太空军事化计划》2022最新报告
专知会员服务
23+阅读 · 2022年10月20日
知识图谱最新研究综述
深度学习自然语言处理
45+阅读 · 2020年6月14日
由浅及深,细致解读图像问答 VQA 2018 Challenge 冠军模型 Pythia
GAN生成式对抗网络
50+阅读 · 2019年3月13日
Github项目推荐 | PyTorch 中文手册 (pytorch handbook)
自然语言处理(NLP)前沿进展报告
人工智能学家
20+阅读 · 2018年9月30日
美国情报工作浅析
计算机与网络安全
26+阅读 · 2018年8月10日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
12+阅读 · 2019年3月14日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员