「资讯」AI造假泛滥,首部法规即将出台!

2019 年 12 月 7 日 ZEALER订阅号

不需要人工智能知识,不用懂变成代码技术,甚至连 GAN(生成式对抗网络)都可以没听说过。只要你想,分分钟就能在换脸 APP 上和小李子搭戏、和女友切换性别、甚至一键“扒光”自己的女神。

如果你愿意再多花几块钱,把色情片换头成自己的 ex、让特朗普说一段子虚乌有的政治言论,这些以假乱真的视频,淘宝卖家也都能帮你实现。



从 2017 年底 Deepfake 出现以来,这项技术就在以令人惊愕的速度飞速发展,从肉眼可辨的粗糙感,到嘴角弧度、肌肉走向都惟妙惟肖,但它衍生出来的各类恶意应用,也逐渐将网络与现实世界推向失序的边缘。

在法律监管缺席两年后,针对使用 AI 技术造假的法规终于在路上了。

根据前不久印发的《网络音视频信息服务管理规定》,从明年 1 月 1 日开始,我国网信办将对 Deepfake 展开严格监管。


简而言之,明年开始,再想用 AI 技术搞事情,就是在挑战法律底线,严重的还可能被视为是刑事犯罪。

色情、假新闻、诈骗,Deepfake引发的全球恐慌


如果不了解 Deepfake 的发展现状,我们恐怕很难理解为何它会造成如此严重的恐慌。

2017 年,一名叫 “Deepfake” 的用户在 Reddit 论坛中,上传了几段换脸好莱坞女星的色情视频,引发网民热烈讨论。之后,这个开源项目被迅速传播开,只需几张目标对象的照片,加上并不深奥的技术能力,就能轻松制作出曾经足以乱真的假视频。


色情内容为 Deepfake 提供绝佳的土壤,根据 CNN 的统计,Deepfake 生成的影片中 96% 都是以女性为主角的色情视频。

Deepfake 自诞生以来,最大的受害群体一直是女性,比如引起轰动的“一键脱衣”应用 DeepNude,上线短短几天内获得了 50 万的用户,服务器几度出现了宕机。

虽然后来 DeepNude 被迫下架了,但类似的产业链却并未消失,围绕 Deepfake 色情视频甚至产生一条专门的产业链,最少只需要几十块钱,就能定制一条色情视频。


很多使用者都不怀好意,除了自娱自乐,他们也将假视频进行传播,用作骚扰、恐吓、羞辱女性的手段,甚至演变成为另一种形式的“色情复仇”,Deepfake 对受害者造成的长期心理影响,甚至比身体威胁更可怕。

除此之外,女性群体被物化的现象也在 Deepfake 技术下变得更加严重。

而 Deepfake 进化到会对口型、模仿人声时,它的威胁范围就不只限于女性群体了。

今年 6 月,语音版的 Deepfake 也诞生了,只要输入文字,算法就能在一句话中,随意增减、修改词语,借视频主角之口说出任何你想说的话,语音和口型都十分自然。


举个简单的例子,比如某财经新闻的原报道是“今天苹果股价收盘于 191.4 美元”,只要将输入的文字改为 “182.2”,发音和口型天差地别的两组数字就可以轻易被替换,几乎没有任何破绽,最终成片中很难被察觉。


也就是说,用这种方法生成的假新闻,足以骗过大多数人的眼睛和耳朵。

在过去半年多时间内,运用 AI 变声诈骗的案子多次发生。比如,有犯罪分子通过模仿一家德国能源公司 CEO 的声音,在一天之内骗走了 22 万欧元;还有间谍使用 AI 生成并不存在的个像和资料,在职场社交平台领英上,欺骗了包括政治专家和政府内部人士的众多联系人。

而当这些图片、视频、音频被放置于特定语境中,配合上名人的传播效应,就可能带来难以估量的后果。你能想象当有人借特朗普之口,发表一段种族或宗教歧视言论后,所引发的灾难性后果吗?


道德、技术、法律,能否圈出技术的边界?


其实,除了 DeepNude 这类将色情作为诱饵获利的软件外,大部分类似“造假”算法的初衷都是善意的。比如,“换脸术”可以被运用于电影制作中,来替代以往依靠高价 CG 技术实现的电影效果;对口型的工具,则是为了减轻视频编辑的工作量,或者帮助快速译制影片。


Deepfake 的背后是一种叫做 GAN(生成对抗网络)的机器学习方法。同样是基于 GAN,科学家可以生成大量现实世界中出现概率很低的 Corner Case(极端情况),可以用来训练自动驾驶的感知与决策力;也可以合成医学图像,并用于训练 AI 通过 X 光影像确诊癌症的能力。

鉴于法律在显示面前的滞后性,以往对于 Deepfake 滥用的限制,依靠更多的是企业自己的道德约束。

风靡一时的换脸软件“ZAO”,尽管被下架,在防范技术被恶意使用方面,显然有过考虑的。


比如,ZAO 要求用户在摄像头前完成指定动作,以确认照片为本人后,才能进入换脸页面,如果使用公众人物照片,则无法通过验证;这保证了你没法拿别人的头像来恶搞。而且在生成的视频中,还有“未经肖像权验证,此视频无法分享”的水印,以此提示这是个假视频。


这些手段从一些方面阻断了假视频的恶意传播,比起 Deepfake 在论坛中野蛮发展的时期,有了不小的进步。但对于有能力有技术,不用依赖于软件“做片儿”的技术宅来说,这没什么约束力可言。

于是,针对已经广泛传播的视频,科学家门也试图通过“以毒攻毒”的技术手段,来甄别假视频。

Deepfake 算法根据静态图像创建视频,因此很难完美再现人的所有生理信号,不正常的眨眼频率、奇怪的头部动作、不合常理的呼吸节奏,根据这些特征,一些“反 AI 换脸”研究已初有成效,能识别出一些“ AI 假视频”。


但就像区块链从非法洗钱走向正规,在对技术的监管中,法律依然是最根本、最有效的监管手段。

即将出台的《网络音视频信息服务管理规定》中,明确了对于 AI 生成内容管理的几个维度:企业和个人用户的责任、技术手段鉴别,以及法律监督管理。

从用户角度出发,不仅使用 Deepfake 创造的假新闻将被明令禁止,任何使用相关技术生成的内容,都必须以醒目的方式标记清楚。

与此同时,服务提供商也被要求承担起更多社会责任,包括对 AI 内容展开安全评估、建立健全的辟谣机制、部署鉴别技术等等。


作为支撑 Deepfake 的底层技术之一,CNN(卷积神经网络)元老 Yann Lecun 曾被问到过一个问题:“如果当初知道卷积神经网络(CNN)会催生DeepFake,我们还要不要发表CNN?”

Lecun 没有给出明确答案,而是列出了 CNN 在医疗、安全方面的种种贡献。

一项技术的影响力往往超乎我们的想象,但它 本身不存在原罪,无论是责任、道德还是法律,我们试图圈定出一个不可逾越的边界,针对的终究还是人性。


//

DJI Mavic Mini 上手体验


跟随王自如来一场欧洲新能源之旅



登录查看更多
0

相关内容

华为发布《自动驾驶网络解决方案白皮书》
专知会员服务
125+阅读 · 2020年5月22日
专知会员服务
123+阅读 · 2020年3月26日
新时期我国信息技术产业的发展
专知会员服务
69+阅读 · 2020年1月18日
换脸算什么?现在AI都能一键“脱衣”了
腾讯科技
10+阅读 · 2019年6月30日
那些竞相将DeepFakes商业化的AI初创公司
AI前线
10+阅读 · 2019年5月4日
AI换脸朱茵变杨幂,技术背后细思极恐
大数据技术
7+阅读 · 2019年3月1日
当你的头出现在A片演员的身体上
PingWest品玩
6+阅读 · 2019年1月6日
开源 AI 技术潜在危机爆发,被大肆用于色情方向
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Generative Adversarial Networks: A Survey and Taxonomy
Arxiv
7+阅读 · 2018年8月28日
Arxiv
7+阅读 · 2018年4月11日
Arxiv
3+阅读 · 2018年3月29日
VIP会员
Top
微信扫码咨询专知VIP会员