尽管有人担心这场战争会成为历史上第一场充斥着机器制造的假图像的战争,但这并没有发生。这项技术对冲突的影响要微妙得多。
自10 月 7 日以色列-哈马斯冲突以来的几周内,随之而来的冲突引发了前所未有的虚假信息浪潮,这种 "算法驱动的战争迷雾 "绊倒了各大新组织,也让社交媒体公司陷入困境。
然而,在社交媒体上流传的所有欺骗性图片和视频中,人工智能工具生成的内容仍然相对边缘化。即使有人怀疑以色列-哈马斯战争是否会成为第一场由虚假人工智能生成图像主导的冲突,但这项技术已经产生了更复杂、更微妙的影响。
大西洋理事会数字取证研究实验室(Digital Forensic Research Lab)的副编辑莱拉-马什科尔(Layla Mashkoor)说:"肯定有人工智能图像在流传,但还没到我认为它在信息传播中发挥核心作用的程度。"
马什科尔说,人工智能生成的虚假信息主要被激进分子用来争取支持,或者给人一种某一方得到更广泛支持的印象。这方面的例子包括特拉维夫一块人工智能生成的支持以色列国防军的广告牌、一个以色列账户分享人们为以色列国防军欢呼的虚假图片、一个以色列有影响力的人利用人工智能生成对哈马斯的谴责。
她说:"就我在网上看到的一般使用情况而言,主要是为了争取支持,这并不是目前利用人工智能的最恶意的方式。"
这里的一个关键因素是流传着大量的错误信息,这使得人工智能图像很难影响对话。马什科尔说:"信息空间已经充斥着真实可信的图像和镜头,""这本身就充斥着社交媒体平台。"
哈佛大学肯尼迪学院《错误信息评论》(Misinformation Review)最近发表的一篇论文反映了这一点,该论文探讨了生成式人工智能在全球虚假信息传播中可能扮演的角色。作者在文中写道,对该技术影响的担忧 "被夸大了"。是的,从理论上讲,生成式人工智能能让人们以未来的速度传播虚假信息,但那些寻找虚假信息的人--通常是那些 "对机构信任度低......(或)有强烈党派倾向 "的人--已经有大量耳熟能详的虚假信息可供选择,从阴谋论网站到 4chan 论坛。没有更多的需求。
马什科尔解释说,供应方面也是如此;发明不是实施。她说:"操纵对话或操纵在线信息空间的方法有很多。而有些事情有时比较低级,或者比较容易做到,可能不需要接触特定的技术,即使人工智能生成软件目前很容易获得,但如果你想找的话,肯定有更容易操纵的方法。"
肯尼迪学院论文的另一位作者费利克斯-西蒙(Felix Simon)是牛津大学互联网研究所的一名博士生,他提醒说,他的团队的评论并不是要结束关于可能的危害的争论,而是试图回击关于人工智能将引发 "真理末日 "的说法。这类恐慌往往伴随着新技术的出现。
抛开世界末日的观点不谈,我们更容易研究生成式人工智能是如何真正融入现有的虚假信息生态系统的。例如,加州大学伯克利分校信息学院教授哈尼-法里德(Hany Farid)认为,它比俄乌战争之初要普遍得多。
法里德将这种技术形容为笼罩在声称来自冲突现场的音频和视频上的 "幽灵",他每天都会接到半打到十几个记者打来的电话,询问其真实性。"他说,"对很多人来说,拒绝接受不方便的事实的能力在这场冲突中绝对起到了作用。
法里德列举了多个立即招致这种否定的例子,包括人们指出各种数字证据,证明谁是导弹袭击加沙阿赫利阿拉伯医院的幕后黑手,以及儿童被埋在废墟下的图片,有些是真的,有些是假的。
其中最突出的例子是以色列总理本雅明-内塔尼亚胡在其 X 账户上发布的儿童被烧伤的照片。法里德说,他的团队分析了这些照片,得出的结论是没有使用人工智能,但怀疑的种子已经种下。当有人使用人工智能将其中一张照片中的孩子替换成一只小狗时,事情就变得更加扑朔迷离了。
换句话说,这种传播遵循的是一种历史模式: 错误的信息在社交媒体上被分享,然后通过算法和人工放大。"法里德说:"从更广阔的角度来看,从我们对快速发展、影响巨大的世界进行推理的能力来看,我认为这场冲突比我们过去所看到的更加严重。"我认为人工智能是其中的一部分,但它并不完全是人工智能。这太简单化了。"
参考来源:https://www.wired.com/story/israel-hamas-war-generative-artificial-intelligence-disinformation/