亚马逊认为它找到了一种寻找最佳员工的有效方法。招聘既耗时又昂贵,为什么不把它外包给人工智能(AI)呢?
他们的团队建立了一个基于人工智能的算法——一系列告诉计算机如何分析数据的指令——这个算法会给每个候选人一个1到5星的评分。然后,他们可以简单地选择五星的候选人。
但是有一个问题。事实证明,女性在软件和科技工作中得分不高。发生了什么事?
这个算法是根据过去10年提交给亚马逊的简历进行训练的,大部分都是男性。该算法已经“学习到”男性更受青睐。在简历中使用男性语言的人会获得更高的加分,而在女子学院就读的人则会被扣掉加分。
该算法已经学会了区别对待,模仿人类的偏见。
其他研究发现,人工智能可以从简历中获取性别信号,即使删除了姓名和代词。而且,即使人工智能被训练成性别中立,它仍然可能歧视父母或其他弱势员工群体,比如那些种族或文化多元化的人或LGBTQI+。
但大多数基于人工智能的歧视都不会被报道。或者甚至可能注意到。这是一个大问题。
在《墨尔本大学法律评论》(Melbourne University Law Review)上发表的一篇对澳大利亚工作场所法律的详细分析中,我发现人们对澳大利亚雇主如何使用人工智能知之甚少。
有许多软件工具使用人工智能来简化人力资源职能——从招聘到绩效管理,甚至到解雇。但是,只有当事情真的出了问题时,人们才会发现这些东西是如何被使用的。
例如,澳大利亚公共服务部门尝试使用人工智能辅助技术来管理促销活动。许多这样的晋升后来因为不是基于绩效而被推翻,但这只是因为公共服务部门有一个专门的绩效保护专员而被披露。
在大多数人工作的私营部门会发生什么?
欧洲有强有力的隐私和数据保护法律——通用数据保护条例(GDPR)——要求人类决策者在任何对人们生活产生重大影响的自动化过程中拥有最终决定权。在欧盟,零工工人利用这一点来挑战优步和Ola,因为他们的司机身份被自动终止。
但澳大利亚没有类似的规定。
澳大利亚的隐私法明显落后于英国和欧盟等国家。令人难以置信的是,它包含了对“员工记录”的全面例外——虽然你的雇主在最初收集新数据时需要你的同意,但一旦掌握了这些数据,就不会对这些数据进行限制。
《1988年联邦隐私法》(Cth)并不适用于小企业,而小企业雇佣了大多数澳大利亚工人。
如果可以证明人工智能算法歧视某些人或群体,反歧视法可能会填补这一空白。但如果我们不知道一个算法正在被使用,我们如何挑战它?
反歧视法主要依赖于个人的投诉——很少有人这样做,即使他们知道自己受到了歧视。对于自动决策,我们可能甚至不知道使用了什么算法,更不用说它是否歧视我们了。
我们需要改革,而且要快。当我们看到OpenAI (ChatGPT的制造商)的管理层因对技术走向的担忧而崩溃时,很明显我们需要对新的人工智能技术进行强有力的监管。我们不能依靠公司自己找到答案或在需要时寻求帮助,更不用说公开报告任何严重问题了。
联邦政府在回应《隐私法》审查时,原则上同意就雇员记录例外进行磋商。而且它已经原则上同意(最终)取消对小企业的例外。
但我们需要更多。采用严格的隐私法——比如gdpr——是第一步。但欧盟已经认识到有必要走得更远,因为它试图通过新的欧盟人工智能法案。该法案旨在成为世界上第一部全面的人工智能法律,并将对风险更高的技术实施更多监管。使用人工智能的就业系统将被归类为高风险。
不过,我认为,反歧视法也需要彻底改革。我们需要雇主承担积极主动的义务,而不是依靠个人来投诉,这样他们就能清楚地知道自己在做什么,也清楚地知道,在采用这些新技术之前,他们必须与员工进行沟通。
我们必须要求公开报道人工智能的发展和实践,否则我们可能无法找到我们需要知道的东西,直到为时已晚。引用本文:教授(2023,11月28日)认为,当人工智能出错时,工人会受到影响。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。