人工智能如何阻止招聘中的无意识偏见

人工智能如何阻止招聘中的无意识偏见

主要特点 招聘人工智能 是阻止无意识偏见的能力。最近的诉讼提醒我们为什么在招聘过程中需要避免偏见:软件初创公司Palantir正在付款 170万美元 与劳工部联邦合同合规计划办公室(OFCCP)解决种族歧视诉讼。

与EEOC准则类似,作为联邦政府承包商,Palantir不能基于种族,肤色,宗教,性别,性取向,性别认同,国籍,残疾或与退伍军人进行歧视。

劳工部指责Palantir过多地淘汰了合格的亚洲工程师职位。该诉讼指控亚洲申请人通常被排除在外。 恢复筛选 和电话面试阶段,尽管具有与白人申请人相同的资格。

作为众多招聘中的一个备受瞩目的招聘歧视案,这一最新诉讼使人们明白合规性的重要性。

招聘过程中歧视的很多责任归咎于无意识的偏见。无意识的偏见是“自动的思维捷径,用于处理信息和快速做出决策 ”到“ 每个人都容易感染 。”

换句话说,无意识的偏见是根深蒂固的人类特质。因此,一些专家认为,消除无意识的偏见需要一种非人为的解决方案:技术。

以下是招聘用AI可以如何帮助您避免在招聘过程中无意识的偏见。

招聘中无意识的偏见看起来像什么

研究发现,具有英语名字的简历比具有中国,印度或巴基斯坦名字的简历收到采访请求的频率高40%。

Palantir亚洲歧视案是这种偏见的现实例子。

招聘中的其他常见偏见包括:

  • 相似吸引效应:这是人们寻找与他们一样的人的趋势。事实相反,“对立面吸引”是一个神话:我们倾向于喜欢与我们相似的人。有关招聘行为的研究发现,即使爱好和生活经验与工作绩效无关,雇主仍喜欢与自己相似的候选人。
  • 确认偏差 :当人们偏爱可以确认其信念的信息,而忽略或贬低那些不肯定的信息时,就会发生这种偏见。确认偏差是招聘经理在面试中向不同的候选人提出不同问题的原因之一。因为他们倾向于问一些问题,以确认他们对每个候选人的独特信念,所以这通常导致将苹果与桔子进行比较。
  • 光环效应 :当我们假设因为人们擅长进行活动时,就会出现这种偏见 A,他们会擅长做活动 B。在招聘中,光环效应是在招聘经理喜欢候选人并将其用作假设他或她将胜任该工作而不是客观地评估其技能和能力的基础上发生的。

为什么无意识的偏见很难消除

畅销书 思考,快和慢 解释了人脑的双重系统理论。系统1快速,本能且毫不费力。系统2缓慢,故意且费力。

无意识的偏见是系统1思维的产物。由于无意识的偏见会在没有意识的情况下影响我们的思维和决策,因此会干扰我们的真实意图。

无意识的偏见是如此难以克服,因为它们是自动的,在我们不知情的情况下会采取行动,并且有很多这样的偏见:Wikipedia列出了超过180种影响我们的决策,社交和记忆偏见。

招聘AI如何减少无意识的偏见

招聘人工智能 是在招聘功能中应用人工智能(例如机器学习,自然语言处理和情感分析)。

人工智能可以通过两种方式减少无意识的偏见。

  1. AI根据数据点制定采购和筛选决策

通过使用大量数据来招聘AI源并筛选候选人。它使用算法将这些数据点组合在一起,以预测谁将是最佳候选人。当处理如此大规模的信息时,人的大脑就无法竞争。

AI客观地评估了这些数据点-摆脱了人类容易受到的假设,偏见和精神疲劳。

与人类相比,AI的一个主要优势是可以测试和验证其结果。理想的求职者简介通常包含人们认为构成成功员工的技能,特质和资格的列表。但是通常,这些资格从未经过测试以查看它们是否与在职绩效相关。

AI可以根据成功员工的实际资格创建个人资料,该个人资料提供的硬数据可以验证或否定有关应聘者所寻找内容的信念。

  1. 可以对AI进行编程以忽略有关候选人的人口统计信息

可以对招聘AI进行编程以忽略有关候选人的人口统计信息,例如性别,种族和年龄,这些信息已被证明会偏向人类的决策。

它甚至可以被编程为忽略细节,例如就读学校的名称和邮政编码,这些细节可能与与人口相关的信息(例如种族和社会经济地位)相关联。这就是金融服务行业中AI软件的使用方式。要求银行确保其算法不会基于与受保护的人口变量(例如种族和性别)相关的数据得出结果。

人工智能仍然需要人的力量来阻止无意识的偏见

训练AI可以发现先前行为的模式。这意味着AI可以了解招聘过程中可能已经存在的任何人为偏见(即使是无意识的)。

为了确保AI不会复制现有偏见或根据我们提供的数据引入新的偏见,仍然需要进行人工监督。

可以通过使用招聘软件对候选人进行排名和评分,然后评估这些候选人的人口统计数据,测试招聘的AI软件是否存在偏见。

伟大的是,如果AI确实在招聘中暴露出偏见,这将为您提供采取行动的机会。在AI的帮助下,我们可以利用人类的判断力和专业知识来决定如何解决任何偏见并改善我们的流程。

该帖子最初发布于 理想 .

照片来源: 塞里 通过Flickr 搏斗 抄送