无人驾驶飞机交付

雇主们通过使用人工智能(AI)工具,越来越多地将招聘过程自动化。虽然这些工具可能对招聘团队很有吸引力,因为它们有潜力简化和加快招聘过程,并识别出更优秀和更多样化的候选人,但它们也可能使现有的偏见继续存在。现在,地方政府正以提议的法规作为回应——针对使用此类技术的公司和开发此类技术的公司——以防止歧视性做法。

有什么新鲜事

越来越多的雇主正在使用人工智能(AI)工具来自动化招聘过程的关键部分。近年来,招聘算法在所有行业和工作类型中都很受欢迎,这是雇主希望提高招聘过程的效率和质量的结果,在某些情况下,还希望提高候选人的多样性。

由于2019冠状病毒病(COVID-19)和转向远程工作的趋势,招聘自动化已得到更广泛的采用,这使得企业越来越依赖虚拟系统进行之前面对面的互动,如工作申请和面试。随着经济复苏,人工智能的使用可能会继续激增公司进入了招聘新员工的阶段

然而,这种人工智能的部署可能会被证明是有问题的,因为算法可以以令人惊讶和阴险的方式复制人类偏见。

在线招聘广告的自动投递导致了性别的再生产和种族偏见.一家科技公司内部开发的筛选候选人的软件,是用现有员工的简历进行培训并制作出来的对妇女的严重歧视.在面试过程中,运用面部识别技术也会导致歧视。

在所有这些情况下,问题都在于人工智能的发展。当对一家公司现有员工的简历进行培训时,该算法再现了导致该公司员工主要是白人和男性的人类偏见——进一步加深了系统性的不平等。由于算法没有使用不同的数据进行训练,因此对不同背景的候选人存在偏见。

议员们看到了这种潜在的歧视,并采取了行动。

一个由纽约市议会提出的法案将要求公司披露他们在招聘过程中使用的技术。此外,该法案将要求招聘软件供应商进行审计,以确保他们的工具不存在歧视。在国家层面,2020年12月,10名美国参议员发出了一封信向平等就业机会委员会(EEOC)主席提出要求,要求该委员会监督招聘技术,并指出其有可能“复制和深化系统性的歧视模式”。

虽然放弃由人类主导的决策似乎可以减少偏见,但这是一种非常有效的方法就业算法综述发现“预测性招聘工具在默认情况下很容易有偏见。”这是由于算法所依据的劳动力数据存在固有的弱点,因为这些数据反映了筛选、雇佣和提拔劳动力的人的偏见。

这给公司带来了一个难题,他们同时寻求提高招聘效率,并实现与多元化、公平和包容相关的目标;特别是在2019冠状病毒病(COVID-19)造成的不平等影响和全球“黑人的生命也很重要”(Black Lives Matter)运动近期势头强劲之后,他们面临着实现劳动力多元化的新呼吁。

雇主可能会看到人工智能的潜力,通过培训来评估来自受保护阶层(在美国,这包括种族、肤色、宗教、性别、国籍、残疾和遗传信息)的候选人。事实上,一些公司正在发展雇佣技术人员时要明确目标是消除偏见

然而,要实现这一过程的自动化,需要训练人工智能寻找特定的资格和属性——这些属性的总和定义了求职者应该是什么样的人,以及求职者为了被聘用应该如何展示自己的标准期望。因此,即使有政府干预,这也可能导致对任何没有或不能达到预期的人的歧视。

信号的变化

法律上的图标

HireVue已经从筛查中删除了面部分析组件这是因为越来越多的人担心招聘过程中人工智能的透明和恰当使用。HireVue是一家著名的视频采访和评估供应商,已经为全球700多家客户进行了1900多万次视频采访。

中国国旗图标

一份来自英国工会大会呼吁“紧急修改立法”来规范人工智能的使用他警告说,如果不加以制止,将会出现广泛的歧视。该报告列出了一些“红线”,如果要让人工智能系统与现代雇佣关系的基础和谐共存,而不是破坏这种关系,就不应越过这些“红线”。

协议的图标

一份工作报告发现,一些招聘算法可能能够提高求职者的多样性和质量.研究人员测试了不同设计的招聘算法,发现与“标准化学习”模式相比,添加“探索奖励”会增加黑人和西班牙裔候选人的数量。

时间表在2025年

快进到2025年

开放的引号

我曾经给我的学生一些建议,比如“做真实的自己”,但现在,这已经不是那种能帮助他们找到毕业后第一份工作的建议了……

马克
康涅狄格州社区大学职业顾问

阅读更多

快速
向前

BSR可持续期货实验室

对可持续发展业务的影响

无论在哪个行业,大多数大公司都已经在招聘过程的某个点上使用了算法驱动的技术。虽然招聘可能看起来像一个问题只在人力资源领域,这些技术的广泛使用和他们的潜力不灭的偏见和歧视使它成为一个关心的许多其他功能业务,从法律到多样性,股本,并加入到管理层。

为了确保尊重人权并避免潜在的法律风险,企业需要了解他们正在使用的所有类型的人工智能招聘工具。这可以包括公司内部开发的软件,或来自不同供应商的软件,用于招聘过程的不同阶段。

企业应对其每一种人工智能工具进行伦理和人权审查,以了解这些技术可能带来的潜在风险和不利影响。这需要了解技术设计的内在问题,以及公司在预期使用时可能存在的偏见和歧视。

开放的引号

人工智能模型识别能力有限,而且往往不准确,除此之外,培训人工智能识别未来员工的某些特征或品质,可能会创造或延续一种规范性的、武断的“好”员工标准。通过强迫应聘者调整自己的行为来满足这个人工智能标准,我们将开始看到真实表达的下降,对个人实际个性和与角色相关的技能的洞察力下降,最终,对人类自主性、创造力和社会的影响变得更大。

达尔顿汉娜,技术和人权专家,BSR

引号的马克

如果一家公司了解潜在风险,并仍希望继续部署人工智能招聘工具,他们就需要确保使用这些工具的人接受过充分的培训。用人工智能技术实现招聘过程自动化可能会减少招聘所需的时间和员工,但它不能完全取代人类。需要有人力监督,定期审查因技术而浮出水面的候选人,以及求职者的招聘过程经验,以确保权利在整个过程中得到尊重。

人工智能工具的人类监管是必须的。即使开发技术的具体目标是促进多样性和减少歧视,也必须保持警惕。

此外,当求职者被人工智能工具评估时,公司需要通知他们,并考虑提供选择退出这种人工智能筛选的选项,而不会因此惩罚求职者。

使用招聘技术还将收集大量求职者的数据,最终还将收集被雇佣的工人的数据。公司将面临如何保护个人数据以确保求职者和员工隐私的问题。

最后,开发算法和人工智能工具的科技公司需要在产品开发过程中加入道德审查和人权评估。在开发过程中应考虑到潜在的偏见和歧视,开发人工智能工具的团队应包括来自不同背景的不同群体的女性和男性。

箭头指向右边

之前的问题:
一个氢燃料的未来

箭头指向左边

下一个问题:
修理的权利

成为第一个了解可能影响企业未来的新兴问题的人

报名接收快速向前发展每个季度。

订阅

Baidu