好的AI,坏的AI,以及如何避免机器学习中的雇佣偏见

在facebook上分享
在twitter上分享
分享在linkedin
共享电子邮件

人工智能在招聘中的应用可能是一把双刃剑。从道德上讲,人工智能是一种行善的工具,它提供了强大的、无偏见的数据点。但在一个不受监管的行业,供应商正在发布考虑不周全的人工智能解决方案,这些方案实现了自动化,并加剧了人类的偏见。

Vervoe的高级产品经理Nicole Bowes最近主持了一个网络研讨会与David Weinberg (Vervoe联合创始人)和Pramudi Suraweera (Seek首席数据科学家)讨论人才获取技术中的优秀AI与糟糕AI。

在这篇文章中,我们将分享David和Pramudi在以下方面的见解:

了解人工智能在招聘中的作用

随着人工智能技术在招聘过程中越来越普遍,使用该解决方案的人有责任理解和揭开技术的神秘面纱,知道它是如何工作的,认识到其中的道德挑战,并学习在购买人工智能技术时应该问什么问题。

但人工智能在招聘中到底是什么?在Seek的Pramudi Suraweera看来,人工智能分为两类:

基于规则的人工智能

基于规则的AI涉及非常简单的基于规则的引擎,由人类编程,以特定的方式对触发器做出反应。在招聘方面,一个例子可以是通过扫描简历中的关键词来创建候选名单的软件。

人工智能机器学习

机器学习(ML)明显比人工智能更先进,它从数据中学习,将其与已知结果进行比较,并找到模式来理解发生的事情,从而达到一个结果。招聘方面的例子包括ML模型,它从历史数据中学习组织中哪些因素决定了招聘的好坏,或者AI分析候选人的面部表情、肢体语言和语调。

Vervoe公司的大卫•温伯格表示:“区别在于,基于规则的人工智能会按照人类的指令工作,而机器学习则会自己找出该做什么。”

人工智能在招聘中的偏见

机器学习容易受到人类的影响招聘的偏见通过数据集介绍。大卫说:“人工智能可能是一种有益的工具,也可能使人类的偏见延续下去,使情况变得更糟。”“而这归根结底取决于如何教机器。”

Pramudi说机器学习必须以一种负责任的方式来管理,以避免将我们自己的偏见和破坏生物多样性招聘

网络研讨会主持人Nicole Bowes分享了三个在招聘过程中“糟糕的”人工智能的引人注目的例子:

  1. 亚马逊著名的是,它废弃了一个显示出对女性有偏见的人工智能招聘工具,因为它使用了10年的招聘数据进行培训,无意间让人工智能知道,在科技岗位上,男性历来比女性更受青睐。
  2. 巴伐利亚广播进行了一项研究,雇佣一名演员在镜头前用相同的面部表情、肢体语言和语调回答相同的问题。然后,通过面部扫描人工智能对她的开放性、外向性和亲和性等特征进行评分。然而,当演员戴上眼镜、戴上头巾或坐在书架前时,结果发生了显著变化。
  3. 电子私隐资讯中心(一个著名的人权组织)在美国对HireVue公司提起联邦诉讼,称其在其人工智能招聘软件中使用人脸扫描,并称其存在不公平和欺骗行为。

人类在做决定时会考虑无数因素和情绪,而机器学习只能从输入的数据中得出结论。

“机器学习最重要的事情之一是,确保只向计算机提供对它有学习意义的数据。”

大卫·温伯格Vervoe的联合创始人兼首席产品官

“如果你向计算机输入巴伐利亚广播公司例子中使用的图像,它会得出诸如‘围巾+眼镜=正确答案’或‘围巾不戴眼镜=错误答案’等结论。”在创建数据集的时候,这可能会很好地工作,但一旦你将它向世界开放,它就不再工作了;整个框架都崩溃了。这是糟糕AI的一个完美例子。”

因此,我们的目标是通过删除所有可能导致潜意识偏见的信息,为机器学习AI提供一个干净的数据集。

“无偏机器学习的改进不是通过向数据集中添加更多的数据,而是通过把东西从

大卫温伯格Vervoe的联合创始人兼首席产品官

在机器学习模型中防止AI雇佣偏见的四种方法

Pramudi和David分享了几种防止机器学习模型学习错误内容的方法。

1.清理数据集

据Pramudi说,人们可能认为数据科学家把大部分时间花在编程深度学习模型上,但事实与此大相径庭。“90%的工作都是在处理数据;了解数据的(性质)、监管数据的输入内容、清理数据……只有很小一部分时间花在构建学习模型上。”

例如,对于扫描简历的公司来说,清理数据可能包括删除姓名(种族偏见)、位置(地理或社会经济偏见)、性别(性别偏见)、出生日期(年龄偏见)等等。这个过程被称为盲目的招聘

大卫对此表示赞同:“在Vervoe,我们花了两年时间收集干净的数据,然后才建立了我们的机器学习模型:候选人花了两年时间完成评估,由人类手动评分,以建立一个数据集。”

2.在模型准备好之前,不要启动人工智能招聘

“你不能只是训练一个系统,然后说‘它在这里!’并将其释放到全世界”,大卫说。“你必须谨慎。它接触的越多,它学到的越多,它证明自己的越多,你就能给予它更多信任。否则就是不负责任。”

Seek也有类似的方法。Pramudi说:“我们不会不考虑后果就把东西放归野外。”有时我们推迟发布是因为我们不舒服或没有准备好。在某些情况下,我们甚至会在游戏发行后将其撤下。”

AI模型应该有好几对眼睛。对于聊天机器人等基于规则的人工智能场景,需要对问题、结果和决策树进行审计,以确保构建它们的人没有下意识地插入对好坏的先入为主的想法。

类似地,进入机器学习模型的数据应该有几个人查看,或者通过外部审核,以确保数据尽可能公正。

3.不断监测机器学习在招聘中的人工智能偏见

避免对机器学习采取“设置并忘记”的方法。必须不断监测该模型,以确保不会引入人工智能招聘偏见。

Pramudi建议通过输入已知的偏见(比如性别偏见)来测试模型,看看它会输出什么。他表示:“上线后持续测试和监控,并从用户那里收集持续反馈。”

“设置并忘记是行不通的”,大卫对此表示赞同。“你不能在代表整个世界的数据集上训练你的模型;你只能尽最大努力确保这是一个非常好的发行起点,然后在此基础上积极学习。”

4.问问你自己模型是否在看正确的东西

从道德的角度出发,要让机器学习正确,首先要从人类开始。大卫说:“我们明白,开发一个有助于决定某人是否被录用的系统是一项巨大的责任。”“我们非常认真地对待这个问题,并以人类的身份来处理它,质疑人工智能是如何判断候选人的。我们愿意在这些事情上被评判吗?我们会希望别人根据我们的姓氏,性别,或者我们回答问题的速度来判断我们吗在线评估?”

作为一项新技术,在人工智能招聘伦理、人工智能招聘偏见和数据模型治理方面,业界和学术界并没有真正的共识。Seek已经制定了内部指导方针,用于从风气和偏见的角度评估和验证其流程和模型,并进行了外部审计。

问AI招聘解决方案供应商的问题

你应该问人工智能招聘解决方案供应商什么问题?David和Pramudi的建议如下:

  1. 你能简单地给我解释一下这项技术吗?
  2. 是基于规则的AI还是机器学习?
  3. 这将如何节省我的工作时间?
  4. 这将如何帮助我做出更好的决定?
  5. 机器学习模型来自什么数据集,它来自哪里,它有多大?
  6. 训练机器学习模型花了多长时间?
  7. 你负责任的数据实践是什么?
  8. 是否对模型的引入偏差进行了持续的监测?
  9. 如何清理数据集以消除人工智能招聘偏见?
  10. 机器学习模型是针对哪个市场(美国、澳大利亚、欧洲等)开发的?
  11. 机器学习模型会从我的公司和我的环境中学习,还是会对每个公司做出相同的决定?

您可能会感兴趣的类似文章

给招聘经理的虚拟面试技巧