DeepFake捏脸真假难辨,汤姆·克鲁斯比本人还像本人!

2022 年 7 月 24 日 新智元



  新智元报道  

编辑:Aeneas 拉燕
【新智元导读】在网上,不断冒出的Deepfake视频让人们难辨真假。Tiktok上的假汤姆·克鲁斯已经拥有了360万粉丝。Deepfake的门槛变低,也带来了源源不断的问题……


在世界上最受欢迎的社交媒体平台之一TikTok上,源源不断的Deepfake视频正在冒出来。
这些视频对拍摄对象的面部或身体进行了数字化改造,让用户完全变成了另一个人。
当然啦,大家一般都是换名人的脸。
就比如,TikTok上的这位@deeptomcriuse,已经发布了数十个假冒汤姆·克鲁斯的deepfake视频,并且有了360万粉丝。
好家伙,这相似度,是汤姆·克鲁斯本人看了也懵逼的程度。
在另一个Deepfake视频中,一个fake的扎克伯格承认了自己对于窃取用户大数据的野心。
「想象一下:当一个人手握数十亿人的数据,他就掌握了他们的生活和未来……Spectre让我知道,谁掌握了数据,谁就掌握了未来。」
请记住,以上这些话都不是小扎说的。
仔细看原版和翻版的视频,的确真假难辨……

在这个恶搞视频中,基努·里维斯刚刚制止了一场持枪抢劫。
而这位马斯克中国分克甚至骗过了马斯克本尊。

错的不是技术,而是人


虽然在大多时候,Deepfake被网友们用来搞怪,但令人担忧的是,越来越多人在用这门技术进行虚假宣传、欺诈、抹黑公众人物。
Deepfake很好地融合了文本、图像和镜头处理。与绿屏和计算机生成图像相比,它为视觉插入提供了更便宜、更精致的技术。
本来这项技术在诞生的伊始,寄托着创造者的美好愿望,比如帮助人们哀悼和怀念逝去的亲人。
然而罪恶的不是技术,而是人性。
很多时候,Deepfake被用来制作虚假新闻、诋毁名人,甚至伪造色情内容。
美国大选期间,AI换脸技术就成了政客之间相互攻击的工具。
特朗普就曾在推特上转发过一个伪造的拜登吐舌头的视频,播放量一晚上就超过了1000万。

这么明 显的恶 搞,一般人都不会信。 但如果是那种似是而非的视频呢?
2019年,英国保守党方面疑似在选举中伪造工党国会议员Keir Starmer接受电视采访时口齿不清的视频。

而DeepNude 2.0(现已停用)被用来让穿着衣服的女性在镜头中呈现裸体,经常被用于报复和敲诈。
此外,Deepfake还经常被用于诈骗。当信赖的朋友或亲戚打来视频电话向你借钱,你大概率会中招。
一项研究发现,2020 年使用数字技术进行的诈骗使美国金融机构损失了200亿美元。

Deepfake很容易,立法很难


DeepFa ke的创作者强调,如果想让这些换脸视频看起来更加真实,就要花费大量的时间和精力。
然而DeepFake也确实在变得越来越容易。
随着更多DeepFake应用程序的开发,在未来,哪怕是技术水平不高的人也能越来越容易地制作出看起来很逼真的DeepFake视频。
只要想想在过去的十年里,ps是怎么蓬勃发展的,就大概能预测到DeepFake未来的发展了。
而立法、监管和检测软件正在努力跟上DeepFake的蓬勃发展。
2019年,Facebook因未能删除政治家Nancy Pelosi的合成视频而受到批评,因为它不符合其对DeepFake的定义。
2020年,Twitter和TikTok禁止分享可能会欺骗、迷惑或伤害他人的合成视频(除非标清楚是DeepFake)。
而YouTube则是下架了所有与2020年美国联邦选举有关的DeepFake视频。
但是,即使这些政策有意引导,平台管理员也很难及时处理每一条上报的视频。
在澳大利亚,新南威尔士州的Ashurst公司的律师表示,现有的版权和相关法律可能无法保护澳大利亚人免受DeepFake的影响。
虽然国外已经开始尝试制定法律规整这个领域,但这些法律大多都集中在政治传播方面。
例如,加利福尼亚州规定,在选举期间张贴或传播经过数字处理的候选人内容是非法的。但不从政的人并不受这条法律的保护。
而最好的补救措施之一,就是让用户尽量掌握辨别的技巧。

我们能做什么?


通常 情况下,能让Deep Fake露馅的 第一个迹象是 ,有些东西看着似乎不对劲。
如果是这样,就要更仔细地观察被拍者的脸,想一想:脸部是否太光滑,或有不寻常的颧骨阴影?
眼睑和嘴巴的 动作是否看起来不连 或不自然?

头发看起来是真的吗?
要知道,目前的深度造假技术很难保持头发(尤其是面部毛发)的原始外观。
你可以在网上搜索该视频或视频中人物的关键词,因为许多可疑的DeepFake视频已经被揭穿了。
试着判断一下来源的可靠性——它看起来是真的吗?如果视频发布在社交媒体平台上,那么发帖人的账户是否经过了验证?
你还可以对播放的视频进行截图,并进行谷歌反向图片搜索,检查视频的原始版本是否存在,将其与可疑的版本进行对比。
最后,如果你确实发现了一个DeepFake的视频,一定要记得点举报。



参考资料:
https://techxplore.com/news/2022-07-celebrity-deepfakes-tiktok-theyre-common.html

登录查看更多
0

相关内容

北约防务学院:元宇宙对安全与情报的影响
专知会员服务
34+阅读 · 2022年7月2日
《重塑MQ-9 "死神 "无人机的形象》美国米切尔研究所
专知会员服务
61+阅读 · 2022年6月7日
【AI+军事】 《冲突监测》附论文
专知会员服务
46+阅读 · 2022年4月27日
数字营销异常流量研究报告(2022年),50页pdf
专知会员服务
14+阅读 · 2022年3月15日
专知会员服务
71+阅读 · 2020年12月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
DeePhy: On Deepfake Phylogeny
Arxiv
1+阅读 · 2022年9月19日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员