也就是说,用这种方法生成的假新闻,足以骗过大多数人的眼睛和耳朵。 在过去半年多时间内,运用 AI 变声诈骗的案子多次发生。比如,有犯罪分子通过模仿一家德国能源公司 CEO 的声音,在一天之内骗走了 22 万欧元;还有间谍使用 AI 生成并不存在的个像和资料,在职场社交平台领英上,欺骗了包括政治专家和政府内部人士的众多联系人。 而当这些图片、视频、音频被放置于特定语境中,配合上名人的传播效应,就可能带来难以估量的后果。你能想象当有人借特朗普之口,发表一段种族或宗教歧视言论后,所引发的灾难性后果吗?
这些手段从一些方面阻断了假视频的恶意传播,比起 Deepfake 在论坛中野蛮发展的时期,有了不小的进步。但对于有能力有技术,不用依赖于软件“做片儿”的技术宅来说,这没什么约束力可言。 于是,针对已经广泛传播的视频,科学家门也试图通过“以毒攻毒”的技术手段,来甄别假视频。 Deepfake 算法根据静态图像创建视频,因此很难完美再现人的所有生理信号,不正常的眨眼频率、奇怪的头部动作、不合常理的呼吸节奏,根据这些特征,一些“反 AI 换脸”研究已初有成效,能识别出一些“ AI 假视频”。
但就像区块链从非法洗钱走向正规,在对技术的监管中,法律依然是最根本、最有效的监管手段。 即将出台的《网络音视频信息服务管理规定》中,明确了对于 AI 生成内容管理的几个维度:企业和个人用户的责任、技术手段鉴别,以及法律监督管理。 从用户角度出发,不仅使用 Deepfake 创造的假新闻将被明令禁止,任何使用相关技术生成的内容,都必须以醒目的方式标记清楚。 与此同时,服务提供商也被要求承担起更多社会责任,包括对 AI 内容展开安全评估、建立健全的辟谣机制、部署鉴别技术等等。