11分钟阅读

招聘中的公平AI:如何判断你的工具是否无偏见

如果你在招聘中使用机器学习和人工智能(AI)工具在美国,你这么做可能是为了消除偏见,快速找到高质量的员工。但是,如果本应提供帮助的工具反而造成了伤害呢?

在2014年,亚马逊开发了一个简历筛选工具帮助他们快速找到优秀人才。一年后,他们把它装进了罐头。该工具显示了在技术职位上对女性的偏见。这意味着即使某人是世界上最好的开发人员,如果他们是女性,系统也会将他们排除在外。

但风险不仅仅是失去优秀人才。不公平的雇佣会影响你的品牌声誉,导致高达30万美元的惩罚性赔偿

本文将帮助您理解和区分招聘中的不公平和公平AI。那样的话,你就能建立一个包容性的招聘流程以及高质量的候选人。

不公平的雇佣会让你付出多大的代价
不公平的雇佣会让你的公司损失高达30万美元的惩罚性赔偿美国平等就业机会委员会

到目前为止,人工智能招聘系统在招聘方面有好有坏

在人工智能出现之前,招聘人员依靠员工推荐、印刷广告和其他低技术手段来招聘优秀的候选人。事情在20世纪90年代发生了变化当互联网出现的时候。

人们开始使用互联网展示他们的候选人资料,招聘经理可以在网上发布职位空缺。这是人工智能在招聘中的开始,与简历筛选工具带头。

从那以后,招聘AI已经取得了长足的进步;现在包括视频筛选工具,聊天机器人等等。以下是到目前为止的情况。

人工智能在招聘方面的良好应用

以下是人工智能在招聘方面的一些良好应用……

iSelect给了每个候选人一个证明自己技能的机会

“它(Vervoe)消除了偏见,我们立刻看到了巨大的进步。现在,对候选人的评估完全取决于他们的技能。现在,我们只在招聘决定做出后才看他们的简历,这对我们来说是巨大的进步。”

菲奥娜·贝克,招聘经理

iSelect该公司在留住工作超过6个月的销售顾问方面遇到了困难。

借助Vervoe的人工智能平台,iSelect放弃了筛选简历,转而进行技能评估在招聘的第一阶段。贝克说,这些评估有助于提高参加面试的候选人的质量。他们见多识广,准备充分,并且已经证明了自己的技能。最重要的是,评估消除了偏见,为所有申请人创造了公平的环境。

欧莱雅找到了不符合常规要求的优秀员工

“我们已经能够招聘到那些我们可能不会只看简历就录用的人。就像营销用的技术简介,销售用的财务简介。”

Eva Azoulay,人力资源全球副总裁

美公司,欧莱雅使用人工智能来节省时间,筛选质量和多样性,并改善候选人体验。

·阿祖莱说,他们保存200小时筛选12000人,获得80个实习岗位。结果发现,这群人是他们招过的最多样化的员工。

人工智能在招聘中使用不当

广告算法根据性别限制观看中性广告的人

“我们还发现,与将性别设置为男性相比,将性别设置为女性获得的高薪职位广告较少。”

Amit Datta, Michael Carl Tschantz和Anupam Datta,研究员

在研究网络跟踪时,研究人员发现女性看到的高薪工作广告更少当他们浏览网页的时候。

该案例研究的研究人员在将广告偏好设置中的性别设置为女性时注意到了这一点。对于发布招聘广告的公司来说,这意味着他们接触潜在女性候选人的机会更少。

不同类型的人工智能工具及其工作原理

人工智能主要有四种类型,根据它们模仿人类活动的学习方式,每一种都是不同的。

不同类型的人工智能
不同类型的人工智能

活性人工智能

反应式算法允许机器根据预先定义的指令执行任务。程序员使用if-else语句创建函数。

例子:

如果候选人X以优异的成绩大学毕业Y评分,添加到筛选文件中。

这种类型的AI不能做决定,只能做我们告诉他们的事情。

内存有限人工智能

有限的内存AI依赖于过去的现实生活实例(称为模型)来发挥作用。程序员使用这些模型来教软件如何运行。

亚马逊的筛选AI是一个有限的内存AI。它依靠亚马逊的员工档案来了解理想的候选人档案应该是什么样的。在这种情况下,“优秀候选人”的简历中没有“女性”一词,比如“……女性俱乐部”。

心理理论

心智理论人工智能利用情商和心理学来做出明智的决定。

大多数视频面试分析工具属于心智人工智能理论。他们通过分析候选人的面部表情、情绪、语气等来得出结论。

有人工智能

这就是人工智能的“超级智能”领域。有自我意识的人工智能有自己的意识。它们自己思考、学习和进化。但人工智能的创造还没有达到这种自我意识的阶段。

好AI和坏AI的区别

人工智能招聘的好坏取决于一件事;数据。人工智能只能从我们提供给它的命令和示例中得出结论。或者从它观察到的模式。你的招聘AI背后的数据来自谁,来自哪里?

数据质量

俗话说,“垃圾进,垃圾出”。如果用于创建规则和训练模型的历史数据有缺陷,那么你的AI也会有缺陷。

比方说,一组图片、文件或信息可以告诉你的人工智能工具一个好的或坏的销售人员长什么样。如果训练数据中女性明显多于男性,AI就会对男性产生偏见。

好的人工智能是在招聘过程中被输入不同的培训数据的人工智能。

开发团队

人类有固有的偏见。不幸的是,训练人工智能工具的是人,这可能导致人工智能继承了人类的偏见。

一个由工程师和开发人员组成的非多元化团队不太可能发现人工智能训练数据中的偏见。他们可能有无意识的偏见针对特定群体,但团队中却没有人站出来质疑这些与公平相关的指标。

好的AI开发至少要有来自不同社会经济和心理群体的第三方参与。好的AI和机器学习的发展是透明和包容的,而坏的算法是隔离和封闭的。

在招聘中使用公平的人工智能的好处

除了节省时间和提高生产力,公平的人工智能消除偏见并提高了招聘的质量。

消除偏见

公平的AI将允许你的团队超越不相关的细节,如当前的就业状况,职业差距等。如果你使用像Vervoe这样的AI,它专注于技能评估在美国,你只根据被证明的技能来评判应聘者。

很多研究都指出了有偏见的招聘给公司带来的弊端。俄勒冈州立大学发现甚至在招聘过程中,微小的偏差会造成巨大的经济损失.对于一家每年招聘8000名新员工的公司来说,性别偏见每增加1%,就会导致每年280万美元的生产率损失。

性别偏见会让你付出多大的代价
据统计,对于每年招聘8000名新员工的公司来说,性别偏见每年可能导致280万美元的生产率损失

提高招聘质量

好的人工智能可以让你根据应聘者的技能来判断他们。这意味着你会雇佣更多真正能做这份工作的人,而不是只会嘴上说说的人。

此外,公平使用AI招聘工具机器学习解决技能邻接问题。假设应聘者有一项不相关的技能。公平的人工智能在招聘过程中可以找出构成该技能的微小技能,以发现候选人可能具有的与工作相关的能力。这是人类可能会错过的。

iSelect例如,人工智能有助于提高参加面试的候选人的质量。

如何确保你的招聘AI工具是公平的

不公平的人工智能会导致低质量的雇佣和诉讼.以下是人工智能招聘工具需要注意的三件事代尔夫特理工大学的研究

公平人工智能是负责任的、负责任的、透明的
公平的人工智能是负责任、负责任和透明的代尔夫特理工大学

问责制:团队是否证明并解释AI工具的行为?

AI工具背后的团队应该能够解释AI是如何决定的。他们还应该能够证明他们的设计规则和模型背后的假设。

例如,开发人员可能认为特定的大学主要影响某个角色的表现。如果他们将这种假设编码到人工智能中,系统就会更青睐拥有该专业的候选人。为了证明这一假设,当您查询公平性相关指标时,团队应该能够提供相关研究或统计证据。

在Vervoe,我们有一个开放的页面描述我们如何制定评估并确保评分的公平性

对于决策,工具也应该给出解释,否则它可能有隐藏的偏见。

责任:他们是否积极预测和缓解负面影响?

雇佣人工智能的责任意味着积极的预期、反射性、包容性和响应性。

在公平的AI中,开发者会积极预测技术的局限性。缺乏同情心,或对…缺乏认识软技能为例。

他们还将计划控制风险或负面可能性。例如,对于考生评分,系统将有方法覆盖分数。

在Vervoe,我们的人工智能根据学习到的评分偏好(你的)给出一个“预测分数”。但你总是可以查看答案,并手动给有前途的候选人打分,以确认AI分数。

Vervoe的技能评估平台
Vervoe的人工智能提供预测分数并对候选人进行排名

该团队将不断反思他们的AI系统的目的、风险、优势和限制。这样,他们就可以理解这个系统,并帮助使用它的组织避免潜在的不公平。

人工智能技术背后的数据将平等代表来自不同背景的人,以避免偏见。此外,还要注意开发团队本身的多样性。

最后,负责任的人工智能招聘工具必须对社会和技术的变化做出反应。他们必须适应不断变化的包容政策、人口统计和工作性质的演变。团队必须定期修改数据并进行再培训。

Fair-recruitment-ai-with-vervoe
通过Vervoe的机器学习、人工智能平台,招聘更快、更公平

透明度:培训数据是否可访问?

为了保证公平,AI招聘工具的培训数据应该向公众开放,并由第三方进行核实。代码、数据和目的应该是清晰的,这样人们才能理解它是如何工作的。

团队还需要解释系统是如何工作的。在Vervoe,我们有几页解释我们的机器学习AI是如何工作的,包括我们的AI faq页面

用Vervoe创建公平的招聘流程

62%的公司因为有偏见的人工智能而遭受收入损失.诉讼、品牌声誉受损、员工流失和员工生产率低下只是其中一些影响。

有了Vervoe,你就不必承受损失了。Vervoe采用一致的、客观的、基于绩效的评估这给了每个候选人表现的机会。

Vervoe的人工智能通过问题随机化等反作弊功能将偏见最小化。激活这一功能意味着申请人每次都以新的顺序查看评估问题。和您可以在短短30秒内创建评估

为了更多地了解Vervoe的功能以及我们的人工智能是如何工作的,今天请求一个演示.我们对系统的运作方式负责、负责、透明。

莉莉Ugbaja

莉莉Ugbaja

Lily Ugbaja是一个SaaS品牌的内容作者和战略师Martech, HR科技和未来的工作空间。作为一个小众博主,她以买家的旅程为首要目标来创作内容。妈妈的5。对有说服力的、数据驱动的、易于阅读的和易于理解的内容的吸盘。

您可能会感兴趣的类似文章

当你想到一个“黑客”,你可能会不自觉地想象一个神秘的兜帽男子,戴着黑色的太阳镜,被照明…

2022年10月20日

最近互联网上出现了一种分裂的趋势,它被称为“安静辞职”。组织、员工、研究人员,还有……

2022年10月2日,

在招聘经理和招聘人员中,评估候选人和预测其适用性的方法存在着激烈的争论。虽然……

2022年10月2日,