恶搞大军出动,佩洛西这次被「假视频」整惨了!

2022 年 8 月 3 日 新智元



  新智元报道  

编辑:Aeneas 如願
【新智元导读】恶搞视频越来越「邪门」了!面对层出不穷的假视频,媒体是否有义务做出提醒?

2019年5月,佩洛西的一段「醉酒演讲视频」火爆全网。

最开始,这段视频出现在Politics Watch Dog的Facebook页面上。在被传到Twitter、YouTube之后,这段阴阳怪气的恶搞视频引发了病毒式传播。仅Facebook上的某个版本,就有超过140万次的播放,以及3万+的转发。


视频显示,佩洛西当时在出席一个活动, 她酷似一个「酒蒙子」,讲话也不清晰。

据《华盛顿邮报》记者和研究人员对该失真视频的分析表明,视频的速度已降至原始速度的75%左右,同时上调了声调。而且内容也被重新编辑过,所以才会呈现出「酒蒙子」的效果。

在这个视频中,我们可以看到恶搞的版本以及原始的版本。

而这段被恶搞过的视频甚至还引来了特朗普的嘲讽。


据悉,原始视频是佩洛西5月22日在American Progress Ideas Conference发表的一段批评特朗普有所掩饰的讲话。

难怪特朗普会幸灾乐祸。

更神奇的DeepFake


佩洛西的恶搞视频,靠的主要是降速和变调。

不过在如今,如果想要制造更以假乱真的佩洛西讲话视频,可谓是轻而易举了。

对于DeepFake,相信大家都不陌生。

遭过DeepFake「毒手」的有爱因斯坦、黑寡妇、扎克伯格……

此前,网上流传着一段爱因斯坦鼓励大家团结一致共同抗疫的视频。

女士们,先生们:我的名字叫Albert Einstein。我们全体人类正陷入一场战争, 而我们的敌人却看不见摸不着。请大家待在家里,保持距离,勤洗手。团结起来,我们一定能够战胜新冠病毒。谢谢。


看完之后,简直惊掉下巴!

难道爱因斯坦早就预知了2019年的新冠肺炎,甚至还为此录下一段视频,鼓励大家共同抗疫?


爱因斯坦那看透人类本质的狡黠的微笑、标志性的发型和帅气的胡渣子,甚至连额头的皱纹、眼镜片的反光都非常细腻,说话的语气和口音也非常逼真。

这看起来毫无违和感的视频,是真的吗?

当然不是真的!这个视频主要使用了DeepFake技术,配合高超的视频特效手法,制作出一个以假乱真的爱因斯坦视频。

当初,三星DeepFake AI也给蒙娜丽莎整了一个「表情包」!


DeepFake在2017年底横空出世,它虽然不是第一个实现换脸的技术,但却是将AI假视频带入大众视野的先驱。

DeepFake技术基于深度学习,适用于修改图片和影像,可以实现人脸的移花接木。哪怕是动图或视频中的人物,也可以被替换成毫不相干的另一个人。

DeepFake刚诞生时,人们还不明白这项新技术意味着什么。

直到人们发现,它不仅能在小电影上移花接木,还能伪造出各领域名人以假乱真的视频。立法者终于意识到了它的可怕之处。

2019年的佩洛西的伪造视频,技术还显得十分笨拙。网民们轻易就能揭穿这是个假视频。

而如今的假视频技术,已经足够造出以假乱真的视频。

实际上,能够制造假图片和假视频的AI技术不仅仅只有DeepFake,相关技术在过去几年就已经掀起了一股浪潮。

这都要归功于另一项大名鼎鼎的深度学习技术:生成式对抗网络(GAN)。
自2014年Ian Goodfellow发明GAN以来,世界范围内的很多深度学习团队和企业都开始在上面添砖加瓦,各种GAN框架漫天飞舞。
在DeepFake出现之前,就已经有了基于GAN的Face2Face技术和CycleGAN模型。
这些模型可以实时给人换脸,还能把马变成斑马。


媒体有提醒义务吗?


对于互联网上大肆传播的真假难辨的视频,媒体和发布平台有告知用户该内容是否为「真」的义务吗?

「可以说,现在互联网上最重要的事就是内容认证。」Adobe的CEO Shantanu Narayen接受福布斯采访时说。「当我们创造世界上的内容时,我们必须帮忙确定内容的真实性,以及内容的出处。」

三年前,Adobe发起了⼀项名为「内容真实性倡议」(Content Authenticity Initiative)的活动,这项活动发动了很多媒体和技术合作伙伴,涵盖了700多家公司,希望通过全球性的联合来强调和确认内容的「出处」。

根据这个倡议,内容的设计者和消费者可以选择创建并跟踪一个数字线索,以此来显示谁将对给定的视频或图像负责,包括他们对内容做出的任何更改。


不过,蒙特利尔人工智能伦理研究所(Montreal AI Ethics Institute)的创始人Abhishek Gupta却认为,给内容贴上「真实」的标签这一行为并没有那么重要。

因为在他看来,总有那么一些人,就是愿意相信自己选择相信的东西,尽管所有迹象都表明这是假的。「虚假内容是为那些满足于短平快式互动的人量身定做的,这种人本来就很少去花时间判断网上的东西是否是真的。」

换句话说,互联网上傻子多。


Shantanu Narayen也认为,消费者自己也有义务寻找真相,通过现有的工具来验证他们浏览、分享、发布和转发的图片和视频的真实性。「他们有责任来保护自己(不被虚假的东西所蒙蔽),这也是消费者责任的一部分。」

参考资料:
https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media/
https://www.forbes.com/sites/aayushipratap/2022/06/29/deepfake-epidemic-is-looming-and-adobe-is-preparing-for-the-worst/?sh=4820a7cc5b81



登录查看更多
0

相关内容

【CVPR2022】高分辨率和多样化的视频-文本预训练模型
专知会员服务
9+阅读 · 2022年3月6日
【AAAI2022-西电】时空辅助网络的转码视频恢复
专知会员服务
10+阅读 · 2021年12月25日
【AAAI2021】组合对抗攻击
专知会员服务
49+阅读 · 2021年2月17日
AAAI 2021论文接收列表放出! 1692篇论文都在这儿了!
专知会员服务
72+阅读 · 2021年1月3日
我用乐高,翻拍了周杰伦最新的 7 张专辑
少数派
0+阅读 · 2022年7月19日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年10月3日
Arxiv
0+阅读 · 2022年9月30日
Arxiv
0+阅读 · 2022年9月29日
Arxiv
0+阅读 · 2022年9月29日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员