二维码
钻机之家

扫一扫关注

当前位置: 首页 » 新闻资讯 » 热点资讯 » 正文

新研究发现,人工智能在职场中歧视父母

放大字体  缩小字体 发布日期:2024-04-19 14:04:44    来源:本站    作者:admin    浏览次数:81    评论:0

  ChatGPT

  性别偏见在招聘和工作中根深蒂固。

  在澳大利亚,女性的平均收入比男性低23%,很少被邀请参加面试,而且受到更严厉的评价。

  盲目筛选简历或盲目招聘,即在申请过程中从简历中隐藏申请人的姓名,是解决这种偏见的一种常用策略。另一个使用机器学习(ML)或人工智能(AI)来简化至少部分决策。毕竟,人工智能应该无视人类的刻板印象。

  对吧?错了。

  我们的研究表明,简历盲法等策略可能适用于人类雇主,但不适用于人工智能。

  众所周知,人工智能会复制其训练数据中固有的偏见。

  例如,亚马逊(Amazon)为工程类求职者推出了一套自动简历筛选系统。该系统随后被发现存在性别歧视(并迅速停用)。它已经了解到“男性”与申请人素质之间的联系。

  我们的研究仔细研究了招聘算法中不同程度的性别偏见。

  我们发现,性别信号——比名字微妙得多——被人工智能吸收和使用,随着强大的生成式人工智能(如ChatGPT)的兴起,这成为一个日益紧迫的问题。

  我们发现,性别在我们的社会中是如此根深蒂固——我们说话的方式、工作的地点、学习的内容——几乎不可能对人工智能和人类的简历进行性别盲化。

  那么,这意味着什么呢?即使我们有最好的意图,算法也能识别出你的性别。可以识别性别的算法可以用它来预测申请人的素质。

  ChatGPT(目前最强大的基于语言的人工智能)正以前所未有的速度影响着社会的许多方面,以至于开发人员呼吁停止人工智能实验,以更好地了解其影响和后果。

  我们最近的研究着眼于ChatGPT在招聘工作时的性别偏见,并要求它对求职者的简历进行评分。

  我们为一系列不同的职业制作了简历。我们的简历质量很高,很有竞争力,但我们做了两个重要的改变。

  首先,我们交换了申请人的名字,以表明申请这份工作的是男性还是女性。其次,我们为一半的受访者增加了产假间隔。When it comes to jobs, AI does not like parents

  我们所有的申请者都有相同的资格和工作经验,但有些是男性,有些是女性,有些是父母,有些不是。

  我们向ChatGPT展示了这些简历,并要求它在0到100的范围内对这个人的工作资格进行评分。我们在六个不同的职业中重复了这一过程,每份简历重复了30次,以确保我们的结果是稳健的。

  这里发生了一些有趣的事情。

  我们发现ChatGPT对男性和女性简历的排名没有任何不同。不管我们的名字改变了,我们的分数排名对于申请这份工作的男性和女性来说是一样的。

  但是,当我们把育儿假的间隔计算在内时,我们发现ChatGPT在每一项职业中对父母的排名都较低。对于父亲和母亲来说也是如此——照顾假期的间隔告诉算法,这个人不太适合这份工作。

  性别偏见可能会从ChatGPT的预测能力中抹去,但父母身份却不会。

  为什么这很重要?

  即使ChatGPT的开发人员阻止了它的性别偏见,这种偏见也会通过另一种机制——父母关系——潜入其中。我们知道,在我们的社会中,女性承担了大部分的照顾工作,女性的简历比男性更有可能出现育儿假的空缺。

  虽然我们不知道ChatGPT是否真的会在现实生活中对简历进行评级,但我们的研究表明,偏见很容易渗透到模型中,人工智能开发人员几乎不可能预测所有这些偏见或导致偏见的变量组合——尤其是在像ChatGPT这样的复杂模型中。

  想象两份简历,除了申请人的身份不同,其他方面都完全相同:一份是男人写的,一份是女人写的。如果我们对招聘委员会隐瞒申请人的身份,会有歧视的余地吗?

  我们的研究表明,答案是肯定的——如果招聘小组是人工智能的话。

  通过分析2000份简历的数据,我们发现,在同一职业中,男性和女性在描述自己的技能和受教育程度时使用的语言略有不同。

  例如,我们发现女性比男性明显更多地使用让人产生低权力印象的动词(如“协助”、“学习”或“需要”)。

  现在,问题来了。

  在后续实验中,我们的团队发现,人工智能表示将这些微妙的语言差异与性别联系起来。这意味着即使去掉名字和代词,机器学习模型也能识别出简历中的性别。

  如果人工智能可以根据语言预测性别,那么它就可以将其用作CV评级的证据。

  那么,当我们开始将人工智能融入我们的工作生活时,这意味着什么呢?

  好吧,我们的研究表明,虽然“盲目筛选简历”可能对人类有用,但对人工智能不起作用。即使我们放弃所有的识别语言——“她”、“她”和“名字”——其他语言也在表明性别。

  对偏见进行仔细的审计可以消除最明显的歧视,但需要对可能导致偏见但可能不那么明显的代理进行进一步的工作。

  这就是我们需要监管控制的地方,以应对对人工智能歧视能力的更细致的理解,并确保每个人都明白人工智能不是中立或公平的。

  我们都需要尽自己的一份力量,确保人工智能对每个人都是公平和有益的,包括女性和父母。引用本文:新研究发现人工智能歧视职场父母(2023,7月24日)检索自https://techxplore.com/news/2023-07-ai-discriminates-parents-workforce.html除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.114me.cn All Rights Reserved

渝ICP备2024019187号-1