二维码
钻机之家

扫一扫关注

当前位置: 首页 » 新闻资讯 » 热点资讯 » 正文

研究人员对ChatGPT中的性别刻板印象感到惊讶

放大字体  缩小字体 发布日期:2024-04-09 23:31:41    来源:本站    作者:admin    浏览次数:97    评论:0

  Researchers surprised by gender stereotypes in ChatGPT

  DTU的一名学生分析了ChatGPT,并透露,在性别角色方面,这项在线服务非常刻板。这项分析是向人工智能开发人员提供一种工具来测试所有类型的歧视性偏见的第一步。

  ChatGPT于2022年推出时引起了不小的轰动,它让任何可以上网的人都有机会使用人工智能来创建文本和回答问题。尤其是因为ChatGPT的“行为”像一个人,并提供了一个同事或朋友可以写的答案。

  在DTU学习期间,Sara Sterlie一直专注于人工智能,并很快对调查ChatGPT中与性别刻板印象有关的偏见产生了兴趣。这听起来很简单,但为了做到这一点,她必须首先开发出一种进行相关实验的方法。

  这个人说:“当萨拉把她的项目想法告诉我时,我立刻就感兴趣了,同意做她的导师。我已经在人工智能中使用了偏见,但我以前没有使用过像ChatGPT这样的语言模型,”Aasa Feragen教授说,他主要研究用于医学图像处理的人工智能偏见。

  Sara Sterlie选择了非歧视标准(Non-Discrimination criteria)作为她的出发点,这是一种在另一种人工智能模型中分析偏见的公认方法,该模型对材料进行分类,例如用于评估医学图像。例如,训练该模型了解显示健康或患病肺部的x光片之间的差异是很容易的。这样就可以衡量分类模型是否给出了太多的错误答案,例如,取决于图像是男性还是女性。

  ChatGPT的不同之处在于,它不提供整齐分类的可预测答案。此外,当我们向模型提出问题时,并不总是有一个固有的真实答案,就像在分类任务中一样。因此,通常用于测量偏差的方法并不直接适用于ChatGPT这样的模型。我想为我的调查提供一个坚实的基础,于是我选择通过重新解释非歧视标准来发展方法。”

  Sara Sterlie选择开发简化的方法,只考虑男性和女性性别。她定义了统计要求,设计了以性别偏见为重点的实验问题或提示,并在GPT模型上进行了测试。

  第一个是一系列结构化的提示,重点是职业刻板印象。我想测试一下这个模型与不同工作的性别关系。我的第一个实验要求模型指定一个人的工作是男性还是女性的名字,”Sara Sterlie说。

  其结果是,与我们今天的社会相比,性别分配更加刻板,女性主要被分配职位,如平面设计师、时装设计师或护士,而男性则被分配职位,如软件工程师、建筑师和高管。

  另一种类型的提示涉及密切合作的职业中的典型工作职能,例如医生和护士或飞行员和空乘人员。Sara Sterlie对每个提示进行了数百次实验,结果表明,ChatGPT很难将男性代词与护士联系起来,而让女性代词处理飞行员准备飞机降落的任务就更难了。

  此外,Sara Sterlie还进行了非结构化提示的实验,要求ChatGPT描述一些分别有男孩和女孩名字的高中生的爱好。然后Sterlie分析了答案,检查一个单词或短语在文本中出现的频率,以及其他一些事情。很明显,在400份回复中,有大量的女学生从事与动物有关的志愿工作,而男学生则对科技特别感兴趣。

  萨拉·斯特利说:“我所有的实验都一致表明,ChatGPT在结构化和非结构化的提问中都表现出明显的性别偏见。”

  萨拉·斯特利和她的两位导师,同样从事医学图像处理工作的阿萨·费根和尼娜·翁,已经部分预测了实验的结果。

  “我们预计会有一些性别偏见,因为ChatGPT的培训材料来自互联网,在某种程度上反映了我们多年来所知道的性别刻板印象。但我非常惊讶地看到偏见的程度,特别是在性别和工作类型之间的联系方面。与现代社会的分布相比,这是很遥远的。”

  Sara Sterlie和她的导师们目前正在完成一篇关于他们发现的科学文章。

  “据我所知,我们是第一个做这种分析的。作为研究人员,我们的长期目标是开发方法和工具,供ChatGPT等语言模型背后的开发人员使用,以防止性别、种族、国籍等方面的偏见。我们还没到那一步,但Sara的实验是第一步。”Nina Weng说。

  Aasa Feragen补充说,她预计Sara Sterlie的方法将引发一场关于如何避免人工智能偏见的全球讨论。

  Sara Sterlie和Nina Weng表示,对发现和避免ChatGPT和类似的生成式人工智能模型中的偏见感兴趣并不是在批评新技术,例如,两人都使用ChatGPT来总结文本中的要点。相反,他们热衷于确保语言模型和其他生成式人工智能模型生成的文本或图像的公平性。

  “越来越多地使用人工智能来创建文本或图像将影响我们对周围世界的感知。像ChatGPT这样的人工智能是在大量数据上进行训练的,并提供与其训练数据中的模式相似的响应。这意味着,如果你在性取向、家庭类型或个人偏好方面不符合普通人的标准,这些通常在训练数据中占主导地位,你通常不会出现在这些人工智能模型生成的文章等中,”Sara Sterlie解释道。

  研究人员希望创造公平的基础,以确保人工智能在未来不会排除其他群体的代表。

  丹麦技术大学提供

  引用:研究人员对ChatGPT中的性别刻板印象感到惊讶(2024年3月5日),检索自2024年3月6日https://techxplore.com/news/2024-03-gender-stereotypes-chatgpt.html本文档

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.114me.cn All Rights Reserved

渝ICP备2024019187号-1