二维码
钻机之家

扫一扫关注

当前位置: 首页 » 新闻资讯 » 企业新闻 » 正文

Instagram和Facebook上的色情内容:随着审查的加强,Meta扩大了儿童安全措施

放大字体  缩小字体 发布日期:2023-12-16 20:15:32    浏览次数:18    评论:0
导读

新德里,12月2日:由于其平台上涉嫌儿童性虐待内容的扩散受到越来越多的审查,meta表示,它正在扩大和更新旨在保护儿童的儿童安全功能。该公司表示,除了开发技术来解决这种滥用行为外,它还聘请了专门负责在线儿童安全的专家,并与行业同行和执法部门分享信息。该公司在周五晚些时候的一份声明中表示:捕食者不会将伤害儿童

 

新德里,12月2日:由于其平台上涉嫌儿童性虐待内容的扩散受到越来越多的审查,meta表示,它正在扩大和更新旨在保护儿童的儿童安全功能。该公司表示,除了开发技术来解决这种滥用行为外,它还聘请了专门负责在线儿童安全的专家,并与行业同行和执法部门分享信息。

该公司在周五晚些时候的一份声明中表示:“捕食者不会将伤害儿童的企图限制在网络空间,因此我们共同努力阻止捕食者并防止儿童被剥削是至关重要的。”meta表示,它非常认真地对待最近有关其工作效率的指控,并“成立了一个特别工作组来审查现有政策,检查我们现有的技术和执法系统,并做出改变,加强对年轻人的保护,禁止掠夺者,并消除他们用来相互联系的网络”。

该公司补充说,工作组立即采取措施加强保护,儿童安全小组继续制定其他措施。《华尔街日报》最近详细介绍了Instagram和Facebook如何向用户展示不恰当的儿童色情内容。今年6月,该报告详细介绍了Instagram如何连接一个买卖儿童性虐待材料(CSAM)的账户网络,并通过推荐算法将它们相互引导。

周五发布的一项后续调查显示,这个问题是如何扩展到Facebook群组的,那里有一个恋童癖账户和群组的生态系统,有些账户和群组的成员多达80万。meta表示,在Instagram上,潜在的可疑成年人将被禁止相互关注,不会在Explore和Reels等网站上相互推荐,也不会在公开帖子上看到彼此的评论,等等。

“在Facebook上,我们正在使用这项技术来更好地查找和处理特定的群组、页面和个人资料,”该公司表示。此外,与其他因违反儿童安全政策而被删除的群组成员重叠的群组将不会显示在搜索中。该公司表示:“我们会将表现出潜在可疑行为的Instagram账户发送给我们的内容审核人员,如果这些账户在我们监控的60多个信号中表现出足够多的信号,我们将自动禁用这些账户。”

在9月份启动了一项新的自动执法行动后,“我们发现,包含成人裸体和性活动的Instagram生活被自动删除的数量是之前的五倍。”梅塔说:“我们每月在全球Facebook和Instagram上对违反我们政策的400多万名用户采取行动。”

 
(文/小编)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.114me.cn All Rights Reserved

渝ICP备2024019187号-1