一张可怕的照片迅速在互联网上流传开来:一具烧焦的尸体,据说是一个死去的孩子,这显然是在以色列和哈马斯冲突开始的几天里拍摄的。
社交媒体上的一些观察人士很快将其斥为“人工智能”“生成的假”——使用人工智能工具创建,只需点击几下就能生成逼真的图像。
此后,几位人工智能专家得出结论,该技术可能没有参与其中。然而,到那时,对其真实性的怀疑已经普遍存在。
自哈马斯(Hamas) 10月7日发动恐怖袭击以来,虚假信息监管机构一直担心,由人工智能工具制作的虚假信息,包括被称为“深度伪造”(deepfakes)的逼真渲染,会迷惑公众,从而加强宣传力度。
到目前为止,他们的预测是正确的,即这项技术将在战争中发挥重要作用,但原因并不完全是他们认为的那样。
造谣研究人员发现,人工智能造假的案例相对较少,具有说服力的就更少了。然而,人工智能内容传播的可能性正导致人们将真实的图像、视频和音频视为不真实。
在X、Truth social、Telegram和Reddit等论坛和社交媒体平台上,人们指责政治人物、媒体机构和其他用户肆无忌惮地试图通过创建人工智能内容来操纵公众舆论,即使这些内容几乎可以肯定是真实的。
“即使按照我们习惯的战争迷雾标准来看,这场冲突也特别混乱,”加州大学伯克利分校(University of California at Berkeley)计算机科学教授、数字取证、人工智能和错误信息方面的专家哈尼法里德(Hany Farid)说。“深度造假的幽灵现在要严重得多——不需要数万人,只需要几个人,然后你在井里下毒,一切都变得可疑。”
人工智能在过去的一年里有了很大的进步,几乎任何人都可以通过向生成图像、视频或音频的流行人工智能生成器中输入文本,或者使用更复杂的工具,来制作一个有说服力的赝品。2022年春天,乌克兰总统弗拉基米尔·泽伦斯基(Volodymyr Zelensky)的一段深度伪造视频发布时,人们普遍嘲笑它太粗糙,不像是真的;俄罗斯总统弗拉基米尔·v·普京(Vladimir V. Putin)的一段类似伪造视频令人信服,今年6月,几家俄罗斯广播和电视网络播出了这段视频。
相隔大约一年的两张深度伪造照片展示了这项技术是如何进步的——如今,这项技术已经进入了日常用户的手中。
2022年春季
2023年6月
注:视频编辑以显示更详细的内容。
“当你看到的所有数字都可能是合成的时候,会发生什么?”兰德公司(RAND Corporation)研究集团的高级行为科学家、人工智能专家比尔·马塞利诺(Bill Marcellino)在上周的新闻发布会上说。“这听起来无疑是我们信任或不信任信息的分水岭。”
在关于加沙的高度情绪化的讨论中,信任继续受到侵蚀,许多讨论发生在社交媒体平台上,这些平台一直在努力保护用户不受图形化和不准确内容的影响。而现在,专家们表示,恶意代理正在利用人工智能的可用性,将真实的内容视为虚假内容——这一概念被称为骗子红利。
他们在战争期间的误导在一定程度上是由一些人为创造的内容所支撑的。
X上有一篇180万浏览量的帖子,声称展示了马德里一个体育场里的足球迷举着一面巨大的巴勒斯坦国旗;用户指出,图像中扭曲的身体是人工智能产生的迹象。X上一个与哈马斯有关联的账户分享了一张图片,这张照片原本是为流离失所的以色列人搭建的帐篷营地,但照片上的旗帜上有两颗蓝星,而不是以色列国旗上的单星。该帖子随后被删除。Truth Social和一个与哈马斯有关联的Telegram频道的用户分享了以色列总理本雅明内塔尼亚胡(Benjamin Netanyahu)的照片,这些照片经过合成处理,看起来浑身是血。
这些据信是由人工智能工具生成的图像在网上吸引了大量观众。
注:内容被《纽约时报》遮蔽。
更多的注意力花在了没有人工智能篡改迹象的可疑视频上,比如加沙一家被轰炸医院的院长召开新闻发布会的视频——名为“人工智能”这是由一些人产生的——由多个来源从不同的有利位置拍摄的。
其他的例子则更难归类:以色列军方公布了一段录音,称其是两名哈马斯成员之间的一段被窃听的对话,但一些听众说这段录音是伪造的(《纽约时报》、BBC和CNN报道称,他们尚未证实这段对话的真实性)。
为了从人工智能中辨别真相,一些社交媒体用户转向检测工具,这些工具声称可以发现数字操纵,但事实证明,它们远不可靠。时报的一项测试发现,图像探测器的记录参差不齐,有时会误诊明显是人工智能创作的照片,或者将真实的照片标记为不真实。
在战争开始的头几天,内塔尼亚胡在X上分享了一系列照片,声称这些照片是哈马斯“杀害和焚烧婴儿的可怕照片”。当保守派评论员本·夏皮罗(Ben Shapiro)放大X上的一张图片时,他多次被指责传播人工智能生成的内容。
其中一个帖子在被删除之前获得了超过2100万的浏览量,声称有证据证明婴儿的照片是假的:一个检测工具“AI或Not”的截图,可以识别图像是“人工智能生成的”。该公司后来在X上纠正了这一发现,称其结果是“不确定的”,因为图像经过压缩和修改,以模糊识别细节;该公司还表示,它改进了探测器。
“我们意识到,每一项已经开发出来的技术,都曾一度被用来做坏事,”AI or Not的首席执行官阿纳托利·克维尼茨基(Anatoly Kvitnitsky)说。该公司总部位于旧金山湾区,有六名员工。“我们得出的结论是,我们正在努力做好事,我们将保持服务的活跃,并尽最大努力确保我们是真相的提供者。但我们确实考虑过——我们是不是在制造更多的混乱?”
克维尼茨基说,AI or Not正在努力向用户展示图像的哪些部分被怀疑是人工智能生成的。
研究操纵和合成媒体的专家亨利·艾德尔(Henry Ajder)说,现有的人工智能检测服务作为更大工具套件的一部分可能会有所帮助,但如果被视为内容真实性的最终定论,就会很危险。
他说,深度伪造检测工具“为一个复杂得多、难以解决的问题提供了一个错误的解决方案”。
内容来源和真实性联盟(Coalition for Content Provenance and Authenticity)和谷歌等公司正在探索识别媒体文件来源和历史的策略,而不是依赖于检测服务。这些解决方案远非完美——两组研究人员最近发现,现有的水印技术很容易被删除或规避——但支持者表示,它们可以帮助恢复对内容质量的一些信心。
网络安全公司Sophos的高管切斯特·维斯涅夫斯基(Chester Wisniewski)说,“证明什么是假的将是一项毫无意义的努力,我们要做的只是把海洋煮沸。”“这永远不会奏效,我们需要加倍努力,如何开始验证什么是真实的。”
波因特媒体素养项目MediaWise的负责人亚历克斯·马哈德万(Alex Mahadevan)说,目前,想要欺骗公众的社交媒体用户依赖的远不是逼真的人工智能图像,而是以前冲突或灾难的旧镜头,他们把这些镜头错误地描绘成加沙的现状。
他说:“人们会相信任何能证实他们信念或使他们情绪化的东西。”“不管它有多好,或者它看起来有多新颖,或者诸如此类的东西。”
蒂凡尼·许报道误传和虚假信息及其起源、运动和后果。她当了二十多年的记者。更多关于Tiffany Hsu的信息
斯图尔特·a·汤普森(Stuart A. Thompson)撰写了关于虚假和误导性信息如何在网上传播以及它如何影响世界各地的人们的文章。他专注于错误信息、虚假信息和其他误导性内容。更多关于斯图尔特·a·汤普森的报道