二维码
钻机之家

扫一扫关注

当前位置: 首页 » 新闻资讯 » 热点资讯 » 正文

泰勒·斯威夫特深度造假:长期以来,新技术一直被用来对付女性解决方案涉及到每个人

放大字体  缩小字体 发布日期:2024-04-09 23:16:22    来源:本站    作者:admin    浏览次数:56    评论:0

  Deepfake

  上周,泰勒·斯威夫特(Taylor Swift)的“深度假”色情图片在社交媒体上疯传,引发了斯威夫特粉丝、公众甚至白宫的广泛谴责。

  这个问题并不新鲜。斯威夫特是近年来成为深度虚假色情作品受害者的众多名人和公众人物之一,其中主要是女性。高调的例子吸引了大量媒体的关注,但人工智能日益复杂的本质意味着现在任何人都可能成为攻击目标。

  虽然人们对深度造假的广泛影响表示严重担忧,但重要的是要记住,这项技术并不是滥用的原因。它只是另一个用来实施它的工具。

  上周,霉霉的色情深度假照出现在多个社交媒体平台上,包括X(前身为Twitter)、Instagram、Facebook和Reddit。

  大多数主要平台都禁止分享合成和数字操纵的媒体,这些媒体会造成伤害、混乱或欺骗,包括深度假色情。这包括通过照片编辑软件等更简单的方式创建的图像。尽管如此,一张描绘斯威夫特的深度假视频在17个小时内被观看了4700万次,然后才从X上删除。

  长期以来,数字技术、应用程序和服务被用来促进基于性别的暴力,包括性骚扰、性侵犯、家庭或家庭暴力、约会虐待、跟踪和监控以及仇恨言论。

  因此,我们的重点也应该放在解决有问题的性别规范和信仰上,这些规范和信仰往往是这类虐待的基础。

  深度造假的起源可以追溯到2017年11月,当时一位名为“deepfakes”的Reddit用户创建了一个论坛和视频编辑软件,允许用户训练他们的计算机将色情演员的脸与名人的脸交换。

  从那时起,专门的深度伪造网站和帖子大量涌现,以及可以免费或收费创建定制深度伪造的应用程序。

  在过去,制作一个令人信服的深度伪造通常需要大量的时间和专业知识,一台功能强大的计算机,以及获取目标人物的多张图像。今天,几乎任何人都可以做深度假,有时在几秒钟内。

  并非所有人工智能生成图像的应用都是有害的。你可能看到过有趣的病毒式深度造假,比如教皇弗朗西斯穿着羽绒服的照片。或者,如果你看最新的印第安纳琼斯电影,你会看到哈里森·福特因为人工智能而“年轻”了40岁。

  也就是说,深度造假通常是出于恶意目的,包括虚假信息、网络欺凌、儿童性虐待、性勒索和其他形式的基于图像的性虐待。

  创业公司Home Security Heroes发布的一份报告估计,2023年网上有95820个深度假视频,自2019年以来增长了550%。

  当涉及到深度色情时,女性尤其不成比例地成为攻击目标。根据DeepTrace的数据,96%的在线深度造假都是未经双方同意的女性假视频。他们大多是(但不完全是)知名演员和音乐家。

  这令人担忧,但并不令人意外。研究表明,网络虐待对妇女和女孩的影响尤为严重,尤其是土著妇女、移民背景的妇女以及女同性恋、男同性恋、双性恋、变性人和双性人。

  公众人物尤其面临着更高的网络虐待率,尤其是女性和性别多元化的人。一项研究发现,名人在网上受到的辱骂比非名人受到的指责更多,而且这种辱骂通常被认为不那么严重。

  研究表明,基于图像的虐待可能对受害者造成重大伤害,包括焦虑、抑郁、自杀意念、社会孤立和声誉受损。对于公众人物来说,深度造假和其他形式的网络虐待同样会导致职业前景黯淡、退出公共生活和负面的心理健康后果。

  2016年,澳大利亚活动家和法律改革活动家诺埃尔·马丁(Noelle Martin)的照片从社交媒体上被截取,并叠加到色情图片上。马丁报告说,他因此感到“身体不适、厌恶、愤怒、被贬低、失去人性”。经过数字处理和深度伪造的马丁照片在未经她同意的情况下继续在网上传播。

  任何人都可以通过深度伪造成为目标。只需要一张人脸的照片就行了。甚至可以使用专业的工作图像。

  虽然法律改革本身并不能解决这个社会法律问题,但它可以表明这个问题正在得到认真对待。我们需要专门针对非自愿深度色情的法律。

  在澳大利亚,除塔斯马尼亚州外,澳大利亚每个州和地区以及联邦一级都存在基于图像的性虐待犯罪。然而,只有一些法律专门提到数字改变的图像(包括深度伪造)。

  科技公司还可以采取更多措施,主动检测和抑制深度虚假色情内容。他们需要从一开始就优先考虑将“设计安全”方法嵌入到他们的服务中。这可能意味着:

  在设计和测试人工智能时要考虑到潜在的滥用

  使用水印和其他指标来标记co内容是合成的

  “轻推”用户避免某些行为(如使用弹出窗口来提醒他们)关于我同意的重要性)。

  研究表明,公众对深度造假以及如何检测它们的理解存在差距。这进一步强调了数字素养和教育的必要性,以了解自愿和非自愿使用亲密图像之间的区别,以及非自愿深度色情的危害。

  最后,或许也是最重要的一点,我们需要解决潜在的系统性不平等,这种不平等助长了对妇女和性别多元化人群的技术虐待。这包括识别深度假色情的性别问题——对名人和非名人都是如此。

  公司提供

  nversation

  本文转载自The Co在知识共享许可下的对话。阅读原文。The Conversation

  引用泰勒·斯威夫特:新技术早已成为武器

  仇视女性。解决方案涉及到从https://techxplore.com/news/2024-02-taylor-swift-deepfakes-technologies-weaponized.html本文档检索到的每个人(2024年2月1日,2024年2月2日)

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.114me.cn All Rights Reserved

渝ICP备2024019187号-1