• 偏见
    【美国首个立法】招聘算法反偏见法—美国纽约开始执行新的法律 摘要: 纽约市开始执行一项新法律,即本地法律144,该法律要求使用算法进行招聘、雇佣或晋升的雇主提交这些算法进行独立审计,并公开结果。该法还要求公司披露他们使用的算法以及不同种族、族裔和性别的候选人可能从这些算法中获得的平均分数。不遵守规定的公司将面临处罚。该法适用于在城市中执行或申请工作的任何人。然而,批评者认为该法并未做得足够多,可能只被解读为覆盖一部分招聘算法。 经过数月的延迟,纽约市今天开始执行一项法律,该法律要求使用算法进行招聘、雇佣或晋升的雇主提交这些算法进行独立审计,并公开结果。这项在全国范围内首创的立法(纽约市地方法 144 Law 144),还要求使用这类算法的公司向员工或求职者进行披露。 至少,公司必须公开的报告必须列出他们正在使用的算法,以及不同种族、族裔和性别的候选人可能从所述算法中获得的“平均分数”——以分数、分类或推荐的形式。它还必须列出算法的“影响比率”,该法律将其定义为特定类别(例如,黑人男性候选人)中所有人的平均算法给定分数除以最高得分类别中人们的平均分数。 未能遵守规定的公司将面临第一次违规罚款375美元,第二次违规罚款1350美元,第三次及任何后续违规罚款1500美元。每天一家公司使用不符合法律的算法,都将构成单独的违规行为——就像未能提供足够的披露一样。 重要的是,地方法律144的范围超出了纽约市的工人。只要一个人在城市里做工作或申请工作,他们就有资格在新法律下得到保护。 许多人认为这是迫在眉睫的。Applied的首席执行官Khyati Sundaram指出,特别是招聘AI有可能放大现有的偏见——在此过程中加剧就业和薪酬差距。 “雇主应避免使用AI独立评分或排名候选人,”Sundaram通过电子邮件告诉TechCrunch。“我们还没有达到一个地方,那里的算法可以或应该被信任,自己做出这些决定,而不是反映和延续已经存在于工作世界的偏见。” 不必远寻就能找到偏见渗入招聘算法的证据。2018年,亚马逊废弃了一个招聘引擎,因为发现它对女性候选人有歧视。2019年的一项学术研究显示,AI在招聘中存在反黑人偏见。 在其他地方,算法被发现根据是否戴眼镜或头巾等标准给求职者分配不同的分数;因为有黑人名字、提到女子学院,或者使用某些文件类型提交简历而惩罚申请人;并且对那些由于身体残疾而限制与键盘互动的人造成不利。 偏见可以深入人心。2022年10月,剑桥大学的一项研究暗示,声称提供客观、基于功绩的评估的AI公司是假的,认为去除性别和种族的反偏见措施是无效的,因为理想的员工历史上受到他们的性别和种族的影响。 但是风险并没有减缓采用的步伐。根据2022年2月人力资源管理协会的一项调查,近四分之一的组织已经利用AI支持他们的招聘过程。在拥有5000名或更多员工的雇主中,这个比例甚至更高——42%。 那么,雇主到底在使用什么形式的算法呢?这是多种多样的。一些更常见的是根据关键词对简历和求职信进行排序的文本分析器。但也有聊天机器人进行在线面试,以筛选出具有某些特征的申请人,以及设计用于从他们的语言模式和面部表情预测候选人的问题解决能力、才能和“文化适应性”的面试软件。 事实上,招聘和招聘算法的范围如此之广,以至于一些组织不认为地方法律144走得够远。 纽约州美国公民自由联盟的纽约分支机构NYCLU认为,该法在为候选人和工人提供保护方面“远远不够”。NYCLU的高级隐私和技术策略师Daniel Schwarz在一份政策备忘录中指出,地方法律144可能会被理解为只覆盖一部分招聘算法——例如,排除了将视频和音频面试的文本转录的工具。(鉴于语音识别工具有一个众所周知的偏见问题,这显然是有问题的。) “……提出的规则[必须加强,以]确保广泛覆盖[招聘算法],扩大偏见审计要求,并向受影响的人提供透明度和有意义的通知,以确保[算法]不会通过数字方式绕过纽约市的反歧视法,”Schwarz写道。“候选人和工人不应该需要担心被歧视性的算法筛选。” 与此同时,该行业正在进行初步的自我监管努力。 2021年12月,数据与信任联盟(Data & Trust Alliance)成立,该联盟旨在开发一个评估和评分系统,以检测和对抗算法偏见,特别是在招聘中的偏见。该组织一度包括CVS Health、德勤、通用汽车、Humana、IBM、万事达卡、Meta、耐克和沃尔玛等成员,并获得了大量的新闻报道。 毫无疑问,Sundaram支持这种方法。 “而不是希望监管机构赶上并遏制招聘AI的最糟糕的过度行为,这取决于雇主在使用AI进行招聘过程时保持警惕,并谨慎行事,”他说。“AI的发展速度比可以通过的法律来规范其使用的速度更快。最终通过的法律——包括纽约市的法律——可能会因此变得非常复杂。这将使公司面临误解或忽视各种法律细节的风险,反过来,会看到边缘化的候选人继续被忽视。” 当然,许多人会争辩说,让公司为他们正在使用或开发的AI产品开发一个认证系统从一开始就是有问题的。 虽然在某些领域不完美,但批评者认为,地方法律144确实要求审计由独立的实体进行,这些实体在测试的算法的使用、开发或分发中没有参与,也没有与提交算法进行测试的公司有关系。 地方法律144最终会影响变革吗?现在还太早说。但是肯定的是,其实施的成功或失败将影响到其他地方的法律。正如Nerdwallet最近的一篇文章所指出的,华盛顿特区正在考虑一项规定,该规定将使雇主负责防止在自动决策算法中的偏见。在过去的几年里,加利福尼亚州引入了两项旨在规范招聘中AI的法案。去年12月底,新泽西州引入了一项法案,该法案将规范招聘决策中AI的使用,以最大程度地减少歧视。
    偏见
    2023年07月06日
  • 偏见
    如何利用People Analytics建立一个公平的工作场所 概要:自动化正向人力资源部门走来。通过自动收集和分析大型数据集,人工智能和其他分析工具有望改善人力资源管道的每个阶段,从招聘和薪酬到晋升、培训和评估。然而,这些系统可以反映历史偏见,并在种族、性别和阶级的基础上进行歧视。 管理者应该考虑到: 1)模型很可能对大多数人口群体中的个人表现最好,但对代表性较差的群体则更差; 2)不存在真正的 "种族盲 "或 "性别盲 "模型,从模型中明确省略种族或性别甚至会使情况更糟; 3)如果人口类别在你的组织中分布不均(在大多数情况下不是这样),即使精心建立的模型也不会导致不同群体的平等结果。   人力资本分析,将科学和统计方法应用于行为数据,可以追溯到弗雷德里克-温斯洛-泰勒1911年的经典著作《科学管理原理》,该书试图将工程方法应用于人员管理。但直到一个世纪后--在计算机能力、统计方法,特别是人工智能(AI)的进步之后--该领域的力量、深度和广泛的应用才真正爆发出来,特别是,但不仅仅是在人力资源(HR)管理方面。通过自动收集和分析大型数据集,人工智能和其他分析工具提供了改善人力资源管道每个阶段的承诺,从招聘和薪酬到晋升、培训和评估。 现在,算法正被用来帮助管理者衡量生产力,并在招聘、补偿、晋升和培训机会方面做出重要决定--所有这些都可能改变员工的生活。公司正在使用这种技术来识别和消除不同性别、种族或其他重要人口统计类别的薪酬差距。人力资源专业人士经常使用基于人工智能的工具来筛选简历,以节省时间,提高准确性,并发现与更好(或更差)的未来表现有关的隐藏的资格模式。基于人工智能的模型甚至可以用来建议哪些员工可能在不久的将来辞职。 然而,尽管人力资本分析工具有如此多的承诺,但它们也可能使管理者严重误入歧途。 亚马逊不得不扔掉一个由其工程师建立的简历筛选工具,因为它对女性有偏见。或者考虑一下LinkedIn,它被世界各地的专业人士用来建立网络和搜索工作,也被人力资源专业人士用来招聘。该平台的搜索栏的自动完成功能被发现建议用 "Stephen "这样的男性名字来代替 "Stephanie "这样的女性名字。 最后,在招聘方面,一个关于科学、技术、工程和数学(STEM)领域机会的社交媒体广告,被精心设计为性别中立,但在一个旨在使招聘者的广告预算价值最大化的算法中,男性被显示的比例过高,因为女性通常对广告反应更强烈,因此向她们显示的广告更昂贵。 在每一个例子中,分析过程中都出现了故障,并产生了无意的--有时是严重的--对某一特定群体的偏见。然而,这些故障可以而且必须被预防。为了实现基于人工智能的人力资本分析的潜力,公司必须了解算法偏见的根本原因,以及它们如何在常见的人力资本分析工具中发挥作用。 分析过程 数据并不是中立的。人力资本分析工具通常是建立在雇主对员工的招聘、保留、晋升和报酬的历史数据之上。这些数据总是反映了过去的决定和态度。因此,当我们试图建立未来的工作场所时,我们需要注意我们的回顾性数据如何反映旧的和现有的偏见,并可能无法完全捕捉到日益多样化的劳动力中人员管理的复杂性。 数据可能直接带有明确的偏见--例如,你公司的绩效评估可能在历史上对某个特定群体有偏见。多年来,你已经纠正了这个问题,但如果有偏见的评价被用来训练人工智能工具,算法将继承并传播偏见。 还有一些更微妙的偏见来源。例如,本科生的GPA可能被用作智力的代表,或者职业执照或证书可能是技能的一个衡量标准。然而,这些衡量标准是不完整的,往往包含偏见和扭曲。例如,在大学期间不得不工作的求职者--他们更有可能来自低收入背景--可能得到较低的成绩,但事实上他们可能是最好的求职者,因为他们已经表现出克服障碍的动力。了解你想测量的东西(如智力或学习能力)和你实际测量的东西(如学业考试成绩)之间的潜在不匹配,对建立任何人力资本分析工具都很重要,特别是当目标是建立一个更多样化的工作场所时。 一个人力资本分析工具的表现是它所提供的数据和它所使用的算法的产物。 在这里,我们提供了三条经验,你在管理你的员工时应该牢记在心。 首先,最大限度地提高预测的整体质量的模型--最常见的方法--很可能对大多数人口群体中的个人表现得最好,但对代表性较差的群体则较差。这是因为算法通常是最大化整体准确性,因此在确定算法的参数时,对多数人口的表现比对少数人口的表现有更大权重。一个例子可能是一个用于由大多数已婚或单身且无子女的人组成的劳动力的算法;该算法可能确定使用个人日的突然增加表明辞职的可能性很大,但这个结论可能不适用于那些因为孩子生病而需要时常休假的单亲父母。 第二,不存在真正的 "种族盲 "或 "性别盲 "模式。事实上,在一个模型中明确省略种族或性别,甚至会使事情变得更糟。 考虑一下这个例子。想象一下,你的基于人工智能的人力资本分析工具(你一直小心翼翼地避免提供性别信息)在预测哪些员工可能在被雇用后不久就辞职方面取得了良好的记录。你不确定该算法到底发现了什么--对用户来说,人工智能的功能经常像一个黑匣子--但你避免雇用被该算法标记为高风险的人,并看到新员工在加入后不久就辞职的人数有了明显的下降。然而,若干年后,你因在招聘过程中歧视女性而遭到诉讼。事实证明,该算法不成比例地筛选出了来自缺乏日托设施的特定邮政编码的妇女,给单身母亲带来了负担。如果你知道,你可能已经通过在工作附近提供日托服务来解决这个问题,不仅避免了诉讼,甚至使你在招聘这一地区的妇女时获得竞争优势。 第三,如果像性别和种族这样的人口统计学类别在你的组织中不成比例地分布,这是典型的情况--例如,如果过去大多数管理人员是男性,而大多数工人是女性--即使精心建立的模型也不会导致不同群体的平等结果。这是因为,在这个例子中,一个识别未来管理者的模型更有可能将女性错误地归类为不适合做管理者,而将男性错误地归类为适合做管理者,即使性别并不是模型的标准之一。总而言之,原因是模型的选择标准很可能与性别和管理能力相关,因此模型对女性和男性的 "错误 "程度不同。 如何正确对待它 由于上述原因(以及其他原因),我们需要特别注意基于人工智能的模型的局限性,并监测其在人口群体中的应用。这对人力资源部门尤其重要,因为与一般的人工智能应用形成鲜明对比的是,组织用来训练人工智能工具的数据很可能反映了人力资源部门目前正在努力纠正的不平衡现象。因此,企业在创建和监测人工智能应用时,应密切关注数据中的代表人物。更重要的是,他们应该看看训练数据的构成如何在一个方向上扭曲人工智能的建议。 在这方面,有一个工具可以提供帮助,那就是偏见仪表板,它可以单独分析人力资本分析工具在不同群体(如种族)中的表现,从而及早发现可能的偏见。这个仪表盘突出了不同群体的统计性能和影响。例如,对于支持招聘的应用程序,仪表板可以总结出模型的准确性和错误的类型,以及每个群体中获得面试机会并最终被录用的比例。 除了监测性能指标外,管理者还可以明确地测试偏见。一种方法是在训练基于人工智能的工具时排除一个特定的人口统计学变量(例如,性别),但在随后的结果分析中明确包括该变量。如果性别与结果高度相关--例如,如果一种性别被建议加薪的可能性过大--这是一个迹象,表明人工智能工具可能以一种不可取的方式隐含地纳入了性别。这可能是该工具不成比例地将女性确定为加薪的候选人,因为在你的组织中,女性往往报酬不足。如果是这样,人工智能工具正在帮助你解决一个重要问题。但也可能是人工智能工具加强了现有的偏见。需要进一步调查以确定根本原因。 重要的是要记住,没有一个模型是完整的。例如,一个员工的个性很可能会影响他们在你公司的成功,而不一定会显示在你关于该员工的人力资源数据中。人力资源专家需要对这些可能性保持警惕,并尽可能地将其记录下来。虽然算法可以帮助解释过去的数据和识别模式,但人力资本分析仍然是一个以人为本的领域,在许多情况下,特别是困难的情况下,最终的决定仍然要由人类来做,这反映在目前流行的短语 "人在环形分析 "中。 为了有效,这些人需要意识到机器学习的偏见和模型的局限性,实时监控模型的部署,并准备采取必要的纠正措施。一个有偏见意识的过程将人类的判断纳入每个分析步骤,包括意识到人工智能工具如何通过反馈回路放大偏见。一个具体的例子是,当招聘决定是基于 "文化契合度 "时,每个招聘周期都会给组织带来更多类似的员工,这反过来又使文化契合度变得更窄,有可能违背多样性目标。在这种情况下,除了完善人工智能工具之外,可能还需要扩大招聘标准。 人力资本分析,特别是基于人工智能的分析,是一个令人难以置信的强大工具,已经成为现代人力资源不可或缺的工具。但量化模型的目的是协助,而不是取代人类的判断。为了最大限度地利用人工智能和其他人力资本分析工具,你将需要持续监测应用程序如何实时工作,哪些显性和隐性标准被用来做决定和训练工具,以及结果是否以意想不到的方式对不同群体产生不同影响。通过对数据、模型、决策和软件供应商提出正确的问题,管理者可以成功地利用人力资本分析的力量来建立未来的高成就、公平的工作场所。   来自HBR ,作者  David Gaddis Ross    David Anderson   Margrét V. Bjarnadóttir
    偏见
    2022年01月28日
  • 偏见
    探讨:招聘工具有多智能? 基于人工智能的工具有哪些限制? 我(作者:Kevin Wheeler)和许多其他人一直在倡导使用使用人工智能的自动招聘工具。我一直在倡导使用这些工具,原因有二:它们比人类的偏见更少,而且它们可以使招聘过程更加高效和有吸引力。 现有的工具一般分为两类:筛选和评估候选人,以及将常规任务自动化的工具。所有这些工具都是基于专门的人工智能,它们可以解决定义明确的问题或在特定环境下完成常规任务。然而,它们不能做其狭窄任务之外的任何事情。 但它们真的是 "智能 "吗?那是什么意思?显然,它们不是我们认为的智能。只要你问Siri或Alexa一个超出它们狭隘的专业领域的问题,它们的回答要么是无稽之谈,要么是把我们引向人工,要么是提供一些其他行动。例如,我刚刚问Alexa我是否需要牛奶。她说:"你在买牛奶吗?"这似乎有点智能,但 "她 "可能是为了让京东的京东超市可能进行牛奶销售而编程的。 人工智能学者凯特-克劳福德(Kate Crawford)最近的一本书《人工智能地图集》(Atlas of AI)认为,"......我们已经买了这种[人工智能]智能的想法,而事实上,我们只是在寻找规模化的统计分析形式,这些分析的问题和它所给的数据一样多。" 所有供应商为我们提供的增强招聘活动的各种工具都依赖于大量的大数据。这些数据为用于驱动其决策的算法提供了依据。因此,获取大量的数据是至关重要的。而这些数据的质量和种类对其准确性和客观性至关重要。不幸的是,我们已经目睹了许多案例,所使用的数据过于狭窄,以前有偏见,或者样本不够大,无法提供无偏见的结果。亚马逊和微软都曾落入这个陷阱。 使用人工智能的自动化工具的崛起是计算能力爆炸的结果。大量的存储、快速的处理器和可负担得起的访问,使我们有能力压缩大量的数据。利用这些数据,我们可以找到以前不可能看到的模式。例如,我们可以查看我们雇用的每个人的业绩数据、教育、经验等等,并确定导致成功或失败的特质。此外,我们还可以分析我们在面试中提出的问题的答案,并将其与绩效和留任相关联。这使得评估工具更加强大,并使我们能够根据人们的过去对其进行预测。这是否符合道德,是否公平,甚至在某些情况下是否合法,还有待研究。这项技术已经超出了我们理解它和制定公平和道德使用框架的能力。 尽管我们对人工智能工具的看似强大的力量感到震惊,但没有一项技术或思维是新的。大多数人工智能工具已经存在,至少从20世纪60年代就开始了。人工智能没有变得像今天这样重要的原因是缺乏计算机能力。要分析大量的数据,甚至要获得这些数据,需要的计算能力水平直到几年前还不存在。我们目前的许多工具都是在1960年代产生的。一个著名的例子是第一个名为Eliza的聊天机器人。在20世纪60年代,麻省理工学院的Joseph Weizenbaum创造了Eliza来充当心理治疗师。在用户看来,她是一个真正的医生,她会问问题并提供有用的建议,尽管她遵循一个非常简单的脚本。她的局限性在于处理器速度、有足够内存的电脑来处理她的算法、成本和用户访问。 即使在今天,所有的聊天机器人都遵循脚本。必须有人写出将被问到的问题并预测答案。聊天机器人本身其实不过是一棵决策树而已。当候选人回答问题时,算法会使用脚本做出适当的反应。有了今天强大的计算机,再加上自然语言处理,它们可以模仿人类,以现实和准确的方式作出反应,并利用自然语言处理在一定程度上 "理解 "一个答案,即使是出乎意料。 我是聊天机器人的倡导者,因为它们能让候选人随时获得答案和信息。它们可以节省时间,改善候选人的体验,并减轻招聘人员的工作量。如果他们的程序设计得当,他们可以筛选候选人,并淘汰那些不符合他们所寻求的工作要求的人。但是,无论它们看起来多么聪明,重要的是要注意它们不是人类意义上的智能。他们不能感知交流中的细微差别或理解情感。他们不能回答任何超出其脚本的问题。 自动评估测试使用来自数以千计的其他应试者的数据来为算法打分,例如,某人能写代码或解决问题的程度。算法可以访问候选人数据来预测他们的个性或测量他们的智商。它们可以在互联网上搜索,找到符合预定特征或具有特定技能或教育的人。所有这些能力都扩大了招聘人员的影响和范围,使他们的工作更加有效。但是,如果认为这些工具具有人类招聘人员那样的智能,那就错了。 新的人工智能技术,如神经网络和更多的计算机能力,将提高这些工具提供良好建议和作出更准确预测的能力。但是,每个工具都是基于必须存在的数据。寻找和访问这些数据是一个日益严重的问题。谁拥有这些数据?谁可以访问它?它是否被以无偏见的方式使用?这些都是我们许多人的合理担忧。 人类区别于计算机的许多事情之一是我们能够使用情感、无意识的行为,甚至是非理性的行动来做决定。当然,伴随着这些而来的是偏见和许多其他不受欢迎的特征。但与此同时,我们也有独特的能力,可以为某人抓住机会,为某人提供机会,尽管数据显示不应该这样做,但我们可以被自己的情感所左右。计算机不能也很可能永远无法做到这一点。 这些工具都不能取代人类的判断或决策。相反,它们通过比我们更好地分析数据和不偏离规则来增强我们的决策。它们为我们提供概率并指出我们可能从未见过的东西。 但令人怀疑的是,它们是否会像人类一样跳到一个结论,在没有数据的情况下做出决定,觉得某些事情是正确的,大笑、哭泣、同情,或者在一些特立独行的候选人身上冒险,因为他们可能会发明下一个杀手级产品。 How Smart Are Recruiting Tools? What are the limits on A.I.-based tools
    偏见
    2021年05月31日
  • 偏见
    【美国】在线的办公场所文化公司Emtrain获得800万美元融资,以通过数据,分析和基准测试来促进职场文化健康 Emtrain是一家位于加利福尼亚州旧金山的在线工作场所文化平台,用于公司诊断,基准测试和防止不良的工作场所文化成果,获得了800万美元的资金。以通过数据,分析和基准测试来促进职场文化健康 本轮由教育增长合作伙伴牵头。签名银行提供了200万美元的融资以补充股权投资。 该公司打算利用这笔资金扩展其文化技术平台,以按需监控和分析关键指标。 Emtrain由创始人兼首席执行官Janine Yancey领导,提供了一个工作场所文化平台,该平台使用户可以对照全球社区对其文化进行基准测试,从而在问题变成有毒问题,成为合规性问题并破坏文化之前,先找出问题。 该公司与行业专家合作,利用时事来讲授诸如性骚扰,无意识偏见和道德等话题。 该平台已被Netflix,Yelp,杜比,LiveNation等800多家公司使用。 Emtrain处于一个拥挤的领域,拥有像CultureAmp,Lattice和LinkedIn(Glint)这样资金雄厚的新兴领导者。然后,您将在Corner Management上拥有Cornerstone OnDemand,Skillsoft / SumTotal和Talentsoft之类的人才管理平台,或者在具有SAP(Qualtrics),ServiceNow和Oracle的HCM中拥有平台竞争对手。所有这些都侧重于消费者级的体验,所有侧重于利用AI和分析来帮助雇主做出更好的决策/采取行动。     以下为英文原文: Emtrain, a San Francisco, CA-based online workplace culture platform for companies diagnose, benchmark and prevent bad workplace culture outcomes, received $8m in funding. The round was led by Education Growth Partners. Signature Bank provided a $2m facility to complement the equity investment. The company intends to use the funds to expand its culture tech platform to provide on-demand monitoring and analysis of key indicators. Led by Janine Yancey, Founder and CEO, Emtrain provides a workplace culture platform that allows users to benchmark their culture against a global community to identify issues before they become toxic problems that become compliance issues and destroy culture. The company partners with industry experts and uses current events to teach on topics such as sexual harassment, unconscious bias, and ethics. The platform is used by more than 800 companies, such as Netflix, Yelp, Dolby, LiveNation, and others.
    偏见
    2020年05月07日
  • 偏见
    前沿思考:AI驱动的招聘软件是否增加了偏见和麻烦 思考这个话题:AI招聘的软件是否会加剧了偏见,增加了法律风险。刚好看到Bruce Anderson的这篇文章,给大家分享下。 LinkedIn就业法总监Jaimi Kerr说,通往法庭的道路可以用善意铺就。 Jaimi说,随着招聘人员和招聘经理在AI驱动工具不断变化的地形中导航时,他们需要了解法律对此要说些什么。 在与LinkedIn全球人才招聘负责人Brendan Browne的一次对话中,Jaimi指出,当涉及到现在可用于帮助公司更有效地进行资源搜集和招聘的庞大软件库时,法律不仅可以关注结果,还可以关注结果。从理论上讲,具有较小的潜意识偏见。她说,类似地,良好的意愿并不是根据年龄,性别或种族做出工作场所决策的辩护。 在Talent on Tap的最新一集中,Jaimi和Brendan探索了为什么公司的法律和人才获取团队比以往任何时候都需要紧密合作的原因: 告诫购买者:产品声称没有偏见并不意味着它没有偏见 Jaimi与Brendan的团队进行了足够的合作,以了解有多少人才招聘专业人士渴望快速,公平,高效地招聘候选人。同时,为帮助招聘人员做到这一点而推出的软件工具数量呈爆炸性增长。 “在LinkedIn上,您会看到很多广告,” Jaimi说,“对于一堆不同的供应商,他们说,'嘿,我们可以使用机器学习来帮助您找到合适的候选人。'”她经常指出公司还吹捧他们的产品消除了人为偏见。 贾伊米(Jaimi)对布伦丹说:“这听起来很棒,但这并不是说它不可能很棒,但是确实会有意想不到的严重后果,可能导致法律责任。” 陪审团可能不会像你的招聘团队那样相信这种炒作。正如今年早些时候《哈佛商业评论》(Harvard Business Review)上的一篇文章所问:“聘用算法可以防止偏见,还是会加剧偏见?” 招聘人员可能会使用AI驱动的软件来完成全部任务-通过招聘广告来定位某些应聘者;寻找被动候选人;筛选申请人;评分简历;并评估技能和能力。这些工具背后的算法可能是精心设计的,但在美国法律看来,这并不是一个成功的辩护。 招聘团队需要了解什么是完全不同的影响以及如何避免 Jaimi说:“存在歧视的整个领域,这是完全不同的影响歧视。这就是在美国的称呼。在其他地方,有时也称为间接的。” 在招募过程中,工作原理如下:“基本上就是这样,人们要经过筛选工具,” Jaimi说,“一群人(例如男人)以一定的速度通过,也许一群人通过妇女以不同的速度通过。如果您将这两个比率进行比较,而通过率较低的那个小组的通过率不到另一个小组的80%,则可以称为“不良影响”,这被认为是不同的歧视影响的证据。 在以下两种情况下,人工智能驱动的工具可能会对招聘流程造成不同的影响: 该算法不包括居住在距总部10英里以外的任何人,这可能会对人数不足的人群产生不同的影响,具体取决于周围邻里和社区的人口统计学。 该算法仅转发具有20年前未提供的专业学位的申请人,这可能会对年长的申请人产生不同的影响。 这两种情况都不是邪恶的,但每种情况都可能是合法的地雷。而且公司不希望使用其AI工具来创建所需的数据,以查看它们是否会带来不同的影响。到那时,为时已晚。 Jaimi说:“您可以在前端设置一些流程,从而可以帮助您避免这种情况的发生。但是您必须在前端考虑它。您不能只是说,“哦,让我们插入工具,明天再使用。”​​” 在开始使用之前,请严格测试您的招聘软件 至关重要的是,技术援助团队必须与法律团队合作,以确保他们的新软件工具能够帮助他们找到优秀的人才,而不是让他们陷入麻烦。 Jaimi在Talent Blog上说:“符合标准的验证流程符合《员工选拔程序统一指南》(UGESP)中规定的指南。通常,首先要对要考虑使用该工具的工作进行有力的分析,然后进行一项技术研究,以评估选择程序对工作的反映或预测的成功程度以及选择程序是否对公平性产生影响。” 正如Jaimi指出的那样,在UGESP下进行验证过程还可以达到最终的业务目标:它有助于确保该工具实际上正在衡量对您发布的工作是否成功有意义的指标。 大多样性原则:永远不要根据某人的年龄,种族或性别做出决定 布伦丹问杰米(Jaimi),她是否对多元化招聘有更广泛的建议。她说:“最重要的是,要记住-这就是我所说的多样性大规则-不要基于某人的种族,性别,年龄或其他受保护的阶级来做出决定。” Jaimi说,在召集各种各样的候选人之后,您想评估他们的优势和劣势,并选择贡献最大的人。 贾伊米说,有时候人们希望在这一点上找到漏洞。他们问她:如果我有两个相同的候选人,我可以用种族或性别作为决胜局吗? 她说:“我一直对此做出回应,没有两个完全相同和完全相同的候选人。。。。因此,看看那两个人。他们为您带来了什么?他们能为您的团队增加什么?” 这不仅是做出决定的合法方法,而且是正确的方法。 杰米(Jaimi)说:“没人希望被视为只有女性,只有西班牙裔候选人或只有非裔美国人候选人。没有人愿意选择或不选择与这些特征相关的任何东西。而且这恰好是违法的。对我来说,这对我们所有人都很重要。” 最后的想法 布伦丹说:“在与您的法律部门建立合作伙伴关系时,早期和经常是关键。” 他建议招聘经理对团队进行有关当前法律问题的培训,以便他们了解对平台和流程做出选择的背后原因,并建议将其作为当前的优先事项。 “没有很多会议,”布伦丹说,“贾米和我在一起,然后我们就在一个完成的地方。在您的招聘生涯中,无论现在还是永久,这都是您不断做出的承诺和不断建立的合作伙伴关系。”   *图片由  Rock'n Roll Monkey  on  Unsplash拍摄
    偏见
    2019年11月27日
  • 偏见
    【美国】数字化选拔软件Harver完成1500万美元的B轮融资,合计完成3500万的融资 纽约,2019年7月31日   领先的就业前评估软件公司Harver今天宣布,它已经在Insight Partners的带领下筹集了1500万美元的 B 轮融资。该投资将进一步加速Harver通过数字自动化重塑数量招聘流程的愿景。 “ 在短短几年内,Harver彻底改变了全球企业组织的候选人选择流程。他们提供的解决方案彻底改变了公司评估和聘用顶尖人才的方式, ” Insight Partners董事总经理Peter Segall表示。“ 我们很高兴继续与Harver建立合作伙伴关系,并将其发展成为招聘技术领域的行业领导者。” 自2015年推出以来,Harver一直有一个独特的使命 - 将候选人选拔过程数字化转变为体验招聘人员,招聘经理和候选人的喜爱。其平台旨在消除围绕大量招聘的挑战,包括管理大量申请人,减轻无意识偏见,以及提前获取正确信息以制定数据驱动的招聘决策。 “ 通过我们的技术,我们能够对全球大型企业公司的候选人选择流程进行数字化改造。我们将使招聘人员能够更好,更快地匹配候选人,同时消除决策过程中的所有偏见,” Barend Raaff说。Harver的联合创始人兼首席执行官。为实现这一目标,Harver将继续扩展其产品开发和匹配引擎。“Insight Partners的大量投资将为我们提供扩展产品所需的支持,并与更多寻求创新和转变其招聘实践的公司建立联系。” 关于Harver Harver是一个大规模招聘的就业前评估平台。数百家最具创新精神的公司,包括Netflix,优步,Booking.com和喜力,都使用Harver将他们的候选人选择过程数字化转变为体验招聘人员,招聘经理和候选人喜欢。Harver 在阿姆斯特丹,纽约和伦敦设有办事处,正在扰乱招聘行业,为公司提供一种智能方式来评估和自动化候选人选择的各个方面,同时在此过程中消除无意识的偏见。 关于Insight Partners Insight Partners是一家全球领先的风险投资和私募股权公司,投资于高增长的技术和软件公司,这些公司正在推动其行业的变革。Insight成立于1995年,目前管理着超过200亿美元的资产,并累计投资于全球300多家公司。我们的使命是与有远见的高管一起成功寻找,资助和工作,为他们提供实用的实践增长专业知识,以促进长期成功。在我们的员工和我们的投资组合中,我们鼓励围绕核心信念的文化:增长等于机会。 以上由AI翻译完成,仅供参考。 原文来自:https://harver.com/press/harver-raises-15m-in-series-b-financing/
    偏见
    2019年08月01日
  • 偏见
    长篇经典:人力资本分析和AI的四个信任的维度-Josh Bersin 编者注:这是一个长篇的文章,谈AI和People Analytics在工作场所中的几个核心的问题:信任的四个维度:隐私、安全、偏见、人的影响。值得思考! 尤其是HR开始新的数字化时代。请记住,信任是我们今天业务中最重要的事情之一。如果发生不好的事情,你不仅会失去工作,而且对公司声誉的损害可能是巨大的。 原标题:People Analytics and AI in the Workplace: Four Dimensions of Trust 作者:Josh Bersin   以下由AI翻译完成,仅供传递信息,原文请访问文末 AI和People Analytics已经很火了。正如我过去所写的,工作场所已成为一个高度数字化的地方。公司使用调查和反馈工具来获取我们的意见,新工具监控电子邮件和我们的通信网络(ONA),我们捕获有关旅行,位置和移动性的数据,组织现在拥有关于我们的健康,健康和健康的数据。 此外还增加了一个新的数据流,其中包括视频(每个视频会议都可以录制,超过40%的工作面试被录制),音频(记录会议的工具可以感知心情),以及识别面部的图像识别。  在人力资本分析的早期,公司捕获了员工数据,以衡量控制范围,绩效评级分布,继任管道和其他与人才相关的主题。今天,随着所有这些新信息进入工作场所(几乎在工作中点击的任何地方存储在某个地方),人员分析的领域变得非常个性化。 虽然我知道人力资源专业人员认真对待道德和安全工作,但我想指出一些我们需要考虑的道德问题。 数据滥用的风险 首先,让我给你一点动力。虽然您可能会从人力资源软件公司购买一个出色的新员工参与工具或“保留风险预测器”,但这些新系统会带来风险。当您购买系统时,您实际上不知道它是如何工作的,因此它所做出的每一个决定,建议或建议都会成为您组织的问题。 例如,假设您使用Pymetrics,HireVue(编者注:视频面试的工具)或其他高级评估技术来评估求职者。虽然这些供应商努力消除工具中的种族,性别和代际偏见,但如果您实施这些偏见并且候选人起诉您,您的公司应负责任。这种情况一直都在发生。(了解亚马逊如何无意中创建了自己的性别偏见的招聘系统。) 我就遇到过这种事情。多年前我们邀请一名秘书职位的候选人面试,但是我当天不得不离开办公室。候选人来到办公室,我们的办公室经理告诉她我们必须重新安排面试。她立即​​起诉我们歧视,因为她是受保护阶层的成员。我感觉很糟糕,我们付出了她的时间,但我能看出她的感受。 我要指出的另一个例子。一家公司从他们的HCM系统打开“保留预测器”告诉我,他们的经理看着这些评级,并在看到飞行风险时做各种奇怪的事情。一些管理人员实际上不再与这些人交谈并减少他们在工作中获得的支持,因为我猜他们认为“他们正在考虑离开。”显然,这不是良好的管理,但如果我们不好好利用这些数据,人们可以错误地使用它。 当然,还有其他可能出错的事情。如果您可以访问员工健康数据并使用它来评估或讨论员工的表现,我确信您处于合法危险之中。(我不是律师。)如果您泄漏或无意中发布了员工健康数据,则违反了HIPAA规则。  有很多很多地方可以解决问题。只要看看Facebook,Equifax,万豪以及其他所有认为他们都在保护数据的大公司的情况。人们犯错误; 员工做坏事; 我们必须保护数据,算法和管理行为。 随着人工智能变得越来越普遍,我们不再看到数据,而是看到“轻推”或“推荐”。如果“轻推”在某种程度上有偏见而员工变得心烦意乱怎么办?你知道这个软件是如何运作的吗?你可以回过头来确保它没有根据一些不正确的标准进行区分吗?  最后,如果您是分析师并且自己进行分析,您是否准备好在攻击下捍卫您的调查结果和建议?如果有人挑战您的发现并希望按年龄,性别,种族,甚至地点或季节了解数据 - 您是否已准备好确保其有效和可靠?我知道这是我们可以用统计工具做的事情,但我们必须要小心。 请记住,信任是我们今天业务中最重要的事情之一。如果发生不好的事情,你不仅会失去工作,而且对公司声誉的损害可能是巨大的。 我们应该做什么? 我在这个领域做了很多工作,包括花费相当多的时间与IBM,O'Reilly的人们,当然还要与许多人力资源领导者,人员分析领导者和供应商交谈。为了帮助您通过人员分析了解道德问题,让我提出以下框架。 首先,您使用的数据和算法是否公平?它是否准确反映了您想要的性能或生产率数据,而不排除,区分或无意中偏差结果?这很棘手,我将在下面讨论。从这个框架可以看出,道德有两个方面。 二,数据系统和算法安全吗?我们是否在保护隐私,机密性和安全性?谁有权访问,我们如何审核其在公司中的使用和路径? 这是IT中一个众所周知的问题,但现在我们必须处理人力资源问题。 当您查看这两个维度时,您基本上会发现有四个维度需要信任。 要考虑的第一个道德问题是隐私。如上图所示,Facebook,CVS,雅虎等公司在这里遇到了麻烦。当员工加入您的公司时,他们会授予您收集大量数据的权利,但我们作为雇主无权披露此数据,共享或将其与个人识别的信息相关联。 1.隐私 在GDPR规则中,如果员工要求,组织也必须“忘记”这些数据,因此需要考虑一些重要的业务实践。如果你看一下上面的一些问题,他们都会处理披露和保护问题。谁可以访问这些数据并让这些人接受过隐私规则和程序方面的培训? 在Deloitte,所有顾问都会参加强制性的隐私年度课程,我们的PC被扫描,我们接受培训,不会以可以披露的形式存储任何客户信息。就人力资源而言,我们需要告诉员工我们正在收集哪些数据,并确保他们理解这些数据是用于积极目的的。  虽然我们中的许多人可能会觉得在社交媒体和其他地方分享我们的个人故事很舒服(我个人不这样做),但其他人则更加私密 - 因此即使是内部员工目录也可能存在问题。一家大型科技公司最近告诉我一个关于工程师的故事,该工程师创建了一个内部社交网络,该网络显示了曾在哪个办公室工作的员工以及他们过去的工作。员工们很不高兴“发现”这个网站,因为他们没有事先征求意见,抗议其使用。该员工只是一名试图让公司成为更好工作场所的工程师,不得不关闭系统。 并且捕获的数据量不断增加。例如,L&D中增长最快的领域之一是虚拟现实(现在称为沉浸式学习)。VR程序捕获所有类型的个人表现数据 - 您的注意力范围,眼球运动以及您应对压力的能力。Pymetrics评估测量您的冒险能力和认知处理。这种类型的数据可能对目的有用(培训,工作适合),但如果不保密,也可能被滥用。 告诉别人您正在做什么,解释您的“选择加入”政策,并确保您为所有员工数据制定了良好的隐私政策。(GDPR规则要求您获得此类同意,并且您还允许员工查看您收集的数据。) 2.安全 隐私的姐妹是安全。数据是否存储和保护在其他人无法找到的地方?您是否拥有密码策略,加密和其他数据保护措施,以便员工无法将数据带回家,将其发送给第三方或意外将其发布到互联网上?这些是所有公司必须处理的IT问题,当我们收到诸如薪资,工作经历,医疗保健数据和其他个人信息等敏感信息时,我们必须妥善保护。 在欧盟,这已成为一项法律。GDPR规则之一是需要创建数据保护官并设计您的系统以进行数据保护。如果发现贵公司在这些地区失效,您可能会被罚款高达收入的2%,这是一个巨大的风险。 3.偏见 我们在People Analytics中遇到的第三个也是最困难的(也是最新的)问题是偏见。无论您是自己分析数据还是从供应商处购买AI工具,我们都必须记住所有算法系统都基于现有数据。如果现有数据存在偏差,则预测和建议将存在偏差。 这是一个非常难以解决的问题,许多组织正在努力解决这个问题。(IBM Research有关于此主题的精彩视频。)例如: 试图评估公平薪酬的系统会将员工与同行进行比较,但可能无法理解种族,地点和年龄等问题 预测保留的系统可能会歧视少数群体或因文化原因离开公司的其他人 评估适合工作的系统可能会使嵌入招聘历史的旧的,有鉴别力的招聘实践制度化 使用组织网络分析来识别绩效的系统可能没有意识到性别或年龄在信任和关系中起着重要作用 预测表现优异者的系统将偏向现有的高评价个人(可能是白人)。 您购买或构建的每个预测分析系统都会内置偏见。(“偏见”一词的意思是“基于过去的影响”,这正是AI试图做的事情。)  您可以采取的减少偏见的最佳方法是监控和培训您的分析系统。换句话说,查看它所做的预测和建议,并检查结果是否有偏差。亚马逊发现其招聘机器人偏向于女性。IBM通过“机器人培训师”不断监控其内部薪酬推荐引擎和在线管理教练(均由Watson提供支持),他们不断调整系统以应对新情况。 我记得几年前一家公司告诉我,中国的薪酬政策效果不佳,中国的工资增幅是美国的两倍。您的系统可能不知道这一点,因此它可能会偏向于中国的加薪或过度偏向美国的加息。这些不一定是不道德的决定,但这种偏见会伤害你的公司。 供应商非常关注这一点。Pymetrics对此非常认真,公司现在开放其算法来减少偏见。其他供应商应该这样做。 当我们巧妙地训练历史数据的算法时,我们在很大程度上只是重复过去。......我们需要做更多,这意味着检查数据中嵌入的偏见。 - 凯茜奥尼尔,“数学毁灭武器” 你能做什么?监控,评估和培训您的数据驱动系统。例如,IBM率先使用人工智能来帮助改善职业发展,管理实践和薪酬。该公司定期审查其基于Watson的人力资源预测员,并培训他们更聪明,更少偏见。(IBM告诉我,他们基于AI的人力资源聊天机器人现在可以在问题答案中提供超过96%的员工满意度。) 可解释,透明或可信的AI 人工智能社区有一个重大的变化,就是让系统“可以解释”。例如,为什么系统会推荐这个工资变化呢?如果您了解预测的原因,您可以更智能地对其进行操作。 4.人的影响力许多供应商正在构建检测AI偏差的工具,包括IBM的偏差检测云服务,来自Pymetrics的Audit AI。麻省理工学院的研究人员现在发布了自动偏置检测  以及  消除AI偏差而不会降低精度的方法。作为人力资源系统的买家,您应该询问这些功能。 信任的第四个维度可能是最重要的。您对捕获此数据的意图是什么? 正如GDPR规则  明确指出的那样,捕获数据以“看看它可能告诉我们什么”是不行的。如果员工认为他们因错误的原因受到监控,那么影响将是负面的。因此,我相信您应该坐下来记录为什么要捕获给定的数据流并清楚地为项目设定目标。Facebook显然没有在他们的业务中做到这一点,他们仍然在恢复声誉受损。 要问的最大问题是:为什么要实施这种特定的分析或AI工具?它会帮助人吗?还是用于监控或秘密进行绩效评估?   大多数供应商都有最好的意图。 Phenom People的新人才体验平台使用AI帮助求职者找到合适的职位空缺,帮助内部求职者找到合适的工作,并帮助聊天机器人向您提出智能问题,以了解您的工作需求。 Glint的新经理Concierge使用AI推荐行为变化和课程,以帮助您成为更好的领导者。ADP的Compass工具和CultureAmp的Zugata也是如此。Humu正在为团队和运营绩效做这件事。 来自IBM的Watson Candidate Assistant使用您的简历来确定您作为求职者的技能,并找到最佳工作,大大提高招聘质量和聘用时间。 EdCast,Valamis,Fuse和Volley正在使用AI推荐学习内容,BetterUp使用AI为您找到最好的教练。 Oracle,Workday和SuccessFactors使用AI来实现许多功能。Oracle HCM建议调整工资,甚至根据您自己的角色和行为自定义您看到的屏幕,从而简化系统本身。 像Spring Health这样的供应商现在使用AI来诊断您的心理健康并推荐正确的提示,辅导员或医生。 事实上,我很清楚所有人力资源技术供应商都在推动人工智能对人们的积极影响。然而,作为买家,我们必须确保我们能够很好地使用它。 举个例子,这里有一些要避免的事情: 不要使用监控数据秘密通知绩效评估。例如,一家金融服务公司使用一种热量和运动检测器来确定谁进入办公室。雅虎着名审查了VPN日志,以了解人们何时在家工作以及何时没有人工作。这类活动会损害员工的信任感,几乎总会导致糟糕的决策。 不得将任何形式的福利数据用于法律允许的任何其他目的。将某些健康数据用于保险定价是合法的:将其用于继任计划,绩效评估或任何其他形式的员工辅导是不合适的。 不要将训练数据(程序性能)用于性能评估。这不仅会降低信任度,还会使您陷入法律危险之中。 不要跨越个人和专业数据之间的界限。如果您正在跟踪员工手机中的数据,请确保您不会授予他人访问个人信息的权限。虽然该设备可能归公司所有,但侵犯隐私会让您陷入困境。 事实上,在大多数大公司中,在开始捕获数据之前应该进行法律审查。您的项目是否符合GDPR指南,HIPAA规则和其他机密性保护? 还要记住,基于AI的调度和工作供应问题也是有风险的工具。例如,万豪公司实施了一个新的系统来安排管家,并结束工会劳资纠纷,因为工人受到不公平对待。该系统正在推动管家疯狂地从一个房间跑到另一个房间。换句话说,它不是为了“帮助人们”,而是为了“帮助公司”。 我可以给出的简单建议是:将您的分析程序专注于对人产生积极影响的策略。如果您正在跟踪人员以衡量工作效率,并且数据将用于改善工作,那么您就会朝着正确的方向前进。如果您使用这些数据来淘汰低绩效企业,那么您可能违反了公司的管理原则。 底线:使用良好的意识,考虑道德是一个“安全”问题 越来越多的公司聘请了“ 首席道德官 ”和其他工作人员来帮助完成这些项目。其他人正在创建“道德使用委员会”,以确保所有分析项目都经过仔细评估。所有这些都是重要的想法。  就像多样性和包容性更像是“安全计划”而不是“培训问题”,数据的道德使用也是如此。最多元化的组织使用指标和委员会来确保他们的D&I战略得到加强。我们必须在道德使用员工数据方面做同样的事情。  当您启动新的分析程序时,您需要一份需要考虑的问题清单。问问自己“如果这个节目出现在纽约时报的头版上会怎么样?”这会损害公司的声誉吗? 如果答案是肯定的,你需要做更多的功课。 最后,让我们以数据为导向使用消费者体验。暴露大量消费者数据的公司遭受了可怕的打击。 今天,信任是我们拥有的最重要的商业资产之一。认真对待并确保您努力使管理数据驱动朝着正确的方向发展。你会很高兴的。   原文来自:https://joshbersin.com/2019/05/the-ethics-of-ai-and-people-analytics-four-dimensions-of-trust/ 再次说明,翻译来自AI,仅供参考学习~
    偏见
    2019年07月29日
  • 偏见
    招聘网站Indeed调查:职业停滞促使女性脱离科技工作 文/DEAN TAKAHASHI 女性在科技行业的代表性仍然不足,招聘网站Indeed报告说,部分原因是未能留住进入该行业的女性。一项调查显示,女性离开科技工作岗位的首要原因是缺乏职业发展。 在接受调查的女性中,28%的人表示缺乏职业发展或轨迹是他们离开上一份工作的原因。 拥有计算机科学学位的女性比例实际上已从1984年的37%降至现在的19%。拥有科学,技术,工程或数学(STEM)学位的女性中,只有26%从事技术职业,而男性则为40%。 离职的第二个最常见的原因是管理不善,24.6%的受访者选择了这个原因。由于第三个最常见的原因(24.4%)受访者离开了上一份工作,因此工资增长缓慢。 相比之下,与生活方式相关的问题,例如工作与生活平衡(14%),文化适应性(12%)和育儿假政策不足(2%)是离职的常见原因。 (上图:女性离职后工作的主要原因) 事实上,许多技术女性认为男性拥有更多的职业发展机会 - 只有一半(53%)认为男性拥有与男性同行一样的高级领导角色。 在有子女或其他家庭责任的女性中,近三分之一(28%)认为他们因为是父母或有其他家庭责任而被放弃晋升。 薪酬位居榜首,是女性决定职位的最重要因素,三分之一的受访者选择薪酬。但透明度是一个问题--40%的女性表示希望雇主在面试过程中对工资“更加透明”。 一旦上班,薪水仍然是主要关注点。当被问及他们面临的挑战时,几乎一半的受访者(45%)引用了工资增长是最重要的回应。 这比那些认为偏见或歧视(23%)或性骚扰(12%)是挑战的人更多。 (上图:由于缺乏职业发展,技术领域的女性最有可能留下工作) 工资增长也是女性期望在职业生涯中最常见的挑战(33%)。 科技女性认为她们的报酬低于男性 - 几乎一半(46%)的受访者认为他们的报酬低于男性报酬。尽管认为薪资增长是一项重大挑战,但只有超过一半(53%)的科技女性认为可以要求晋升或加薪。 有什么可以改善这种情况?事实上,拥有透明的薪资信息,比如在工作描述中发布工资,可能会有所帮助。超过四分之三(76%)的科技女性表示,这将有助于他们确定并协商更公平的薪酬。 除了提高薪酬透明度之外,努力实现性别薪酬公平以及赋予妇女权力以寻求晋升和加薪也有助于留住人才。一个创造性的例子可以在The Motley Fool,一份财经通讯中找到,该公司最近向员工支付了200美元,要求加薪,以尽量减少性别工资差距。即使员工被拒绝,他们仍然收到200美元。 女性在技术领域对内部流动性的需求很高--61%的人表示,在某些时候,他们希望在公司内部转变为不同的角色。 在那些表示想要在内部转换角色的女性中,有80%的女性表示,如果有明确的方法,她们更有可能留下来。 健康保险是技术女性最重要的福利,37%的人选择它。第二个最受欢迎的是灵活的工作时间表(24%),第三个是奖金或定期加薪(19%)。 25岁至34岁的女性比任何其他年龄组都更难以闯入管理或领导角色(27%),偏见或歧视(25%)是他们在职业生涯中面临的最大挑战。然而,这个年龄组也比整个女性更有可能留下工作,因为团队不够多样化(27%,而所有女性都是23%),或者没有足够的女性领导代表(24%比较)所有女性的比例为20%)。Indeed在调查中调查了1000多名女性。   以上为AI翻译,内容仅供参考。 原文链接:Indeed: Career stagnation drives women out of tech jobs
    偏见
    2018年11月07日
  • 偏见
    隐藏在人工智能AI招聘工具背后的问题,值得我们HR思考! 编者注:这个主要是聊到AI招聘工具可以帮助消除偏见,但这背后并不是一蹴而就的,需要不断努力,举了两个小栗子:AI面部识别会把黑人的犯罪倾向增加,而白人就会低。还有就是高质量的程序员喜欢看漫画。。。当然这个关联性是否真的,都是AI带来的问题。 推荐阅读下,蛮有意思的。 作者:Ben Whitford   土耳其语没有性别代词:“o”这个词在英语中是由“他”、“她”或“它”完成的。这种语言怪癖对机器翻译工具提出了挑战:将土耳其语翻译成英语,像谷歌翻译这样的工具必须猜测其主体的性别——在这个过程中,往往会暴露出其固有的偏见。 例如,谷歌将土耳其语“o bir doktor”翻译成“他是一名医生”和“o bir hem?”她是个护士。谷歌的算法同样认为,总统或企业家是男性,但保姆、教师或妓女是女性。即使是性格特征也会与假定的性别一致:一个努力工作的人被认为是男性,而懒惰的人被认为是女性。 谷歌的程序员没有对这些刻板印象进行编程;该软件利用人工智能研究真实世界的文本,并创造出反映人们实际使用语言的方式的翻译。换句话说,谷歌翻译的偏见是我们自己的。“机器学习算法会发现有偏见的模式,并学会像现实世界一样有偏见,”微软研究公司的Rich Caruana说。 这应该会让人力资源经理们踌躇不前,他们认为,算法是为了消除招聘过程中的偏见。2016年,CIO在一篇文章中预测,人工智能将把招聘转变为“对任何人类偏见免疫的过程”。“一个袖珍计算器不能是种族主义的,理论上是这样的,一个自动分类简历的系统应该是公正的:”简单地使用这样一个自动化的、客观的过程,就有可能大大减少人类偏见的范围。 很容易明白为什么管理人员渴望解决偏差问题。自从美国的“民权法案”和英国的“种族关系法案”禁止明显的歧视以来,已有数十年的时间了,但较不明显的偏见仍然是一个主要问题。研究表明,平均而言,具有刻板印象的非洲裔美国人姓名的简历比用同样的白名单提交的简历要少36%,而且自20世纪70年代以来没有改变,社会学家林肯奎利安说。 奎里安说,并不是说管理者有意识地歧视别人,他去年发表了30项涉及55,842份申请的招聘偏见研究的分析报告。相反,决策者受到无意识偏见的影响,这些偏见基于他们可能不知道的根深蒂固的偏见。“定型是一种缓慢而难以改变的弹性事物,”奎利安说。“这是令人沮丧的现实 - 超过35年,它没有改变。” 在'黑盒子'里面 越来越多的无意识偏见意识促使人们对自动化招聘系统产生兴趣,但这种偏见的普遍性意味着,使用真实世界的数据进行培训的人工智能工具不是公正的。 谷歌翻译的性别问题不是一个孤立的案例。在许多行业中,有无数的例子都是机器学习工具复制了他们的血肉之躯的偏见。 考虑到研究人员发现该面部识别工具是准确的白人99%,但准确的黑人女性只有65%。并且Google的在线广告算法被发现更有可能向与名声不佳的人展开有关逮捕的广告。而且一名被法官广泛使用的人工智能工具被发现错误地将黑人被告标记为重新犯罪的高风险,几乎是白人被告的错误率的两倍。 很容易看出这样的偏见会如何污染与申请人职位空缺相匹配的工具或者通知与奖金和晋升有关的决策。审查编程职位申请的人工授精工具可能会注意到,公司目前的程序员大多是男性,并且会对男性候选人产生相应的推动作用。Caruana说:“你最终不会招聘女性积极参与编程职位,因为来源方面的偏见是,女性总的来说不是程序员。 尽管AI工具可以被命令忽略性别,种族和其他受保护特征,但消除AI系统的偏见比看起来更难。由于它们的性质,人工智能工具发现模式,许多因素 - 邮政编码,教育程度,爱好 - 可能会无意中成为诸如种族或性别等特征的代理。 在最近的一个案例中,招聘服务机构Gild吹嘘自己的AI系统已经发现了如何发现高潜力的计算机工程师:事实证明,这样的候选人可能是日本漫画网站的粉丝。喜欢漫画的候选人,Gild的团队推理,将有助于识别高质量的工程师。 正如数据科学家凯茜奥尼尔指出的那样,问题在于爱漫画和成为一名成功的工程师之间没有因果关系。相反,吉尔已经确定了一个与种族和性别相关的特征,有效地使用了后门的方法来清除那些不符合其成功候选人应该是什么样子的先入之见的人。奥尼尔说:“我很惊讶他们没有想到那个热爱漫画的候选人更有可能成为亚洲人。” “你通过关联和代理获得性别。” 更糟糕的是,O'Neil说,许多AI系统在“黑匣子”内执行这样的计算,使得无法弄清楚结果是如何得出的。如果你正在教计算机玩下象棋或处理图像,这可能无关紧要,但是当你做出关于人们事业的决定时,这是一件大事。“算法不仅仅是帮助自动化一个过程; 他们增加了一层不透明度,所以很难看到和解决失败,“O'Neil说。“面部识别很容易看出它是否可行; 雇用软件更棘手。“   一个潜在问题 - 和一个监管风险 消除这种偏见是一项艰巨的任务,但如果人工智能系统要演变成可信赖的招聘渠道,这一点至关重要,Pocket Recruiter的首席数据科学家Vineet Vashishta说。“在招聘和人力资源领域,你必须是透明的,”他说。“我们必须能够解释'这是我们做出我们做出的决定的确切方式',我们必须能够证明这些数据没有一些阴险的偏见。” 不幸的是,Vashishta说,从事人工智能招聘工具的人很少愿意面对他们系统的潜在偏见。他表示,即使在学术和行业聚会上,研究人员也不愿意将注意力放在关于偏见的谈话上。“在人们开始谈论这件事之前,这是三杯酒和一些沉重的叹息,”他说。“至少公开谈论此事的人非常少,因为这真的很可怕。当涉及到机器学习时,这是可能杀死该领域的领域之一。“ Vashishta说,监管机构很可能会开始在某些司法辖区禁止机器学习工具。纽约市成立了一个工作小组来监督政府使用人工智能系统,而欧洲监管机构正在实施框架,这将大大遏制公司在未经明确许可的情况下使用个人数据的能力。“你可能会看到一些政府在未来五年内禁止机器学习,这将是因为这个问题,”他说。“这将是因为它无法解释,缺乏透明度和问责制,以及机器的偏见会让人们感到恐慌。” 但是Vashishta说,有真正的方法可以减少偏见的可能性。Pocket Recruiter使用AI来识别具有特定技能的申请人,而不仅仅是那些与当前员工相似的申请人。尽管如此,人才招聘决策最终还是由谁来提供Pocket Recruiter用来改进算法的反馈。Vashishta说:“Pocket Recruiter可以向你展示你可能因为无意识偏见而未看过的候选人。“但是当谈到人们告诉我们他们想要的候选人时,那些无意识的偏见又回来了。” 最终,为了消除AI系统的偏见,设计师必须在事情的方式和他们应该的方式之间驾驭危险的无人地带。为了消除真实世界的偏见,设计者必须要么倾斜他们的数据,要么按照他们的系统处理数据的方式,以便最终的结果反映出更理想的替代现实。 但以这种或那种方式推动申请人的数据是一个充满挑战的过程。“我们一直这样做,”Vashishta说。“但这些钟形曲线的修正令我们非常惊讶。我们不知道我们是否正在受伤或帮助,直到我们看到算法运行起来,我们才会知道。“要做出可能让某人工作的成本的变化是不容易的,他说。“当你在像招聘这样的公司工作时,你会因此失去睡眠,因为你正在影响某人的生活。这是一种令人痛苦的方式。“ 没有在窗帘后面偷看 人工智能招聘工具的一个教训可能来自于一种较老的,技术含量较低的补救办法,以致在招聘方面存在偏见:顶级管弦乐队决定在试演期间在音乐家面前悬挂一幕布。古典音乐过去一直以男性为主,但在20世纪70年代引入了盲目的试镜 - 确保音乐家的演奏而不是外观 - 使顶级乐团的女音乐家增加了五倍以上。 然而,要达到这一点,还需要做出决定,确保音乐家的性别不会受到其他因素的影响,比如穿过窗帘的缝隙看到的鞋子,或者没有地毯的地板上的高跟鞋。 更重要的是,管弦乐队不得不将盲试作为一个起点而不是一个明确的解决方案,并且接受这样一个长期以来由男性主导的机构,偏见仍然是一个问题。尽管已经证明了他们的音乐才能,但第一批通过盲目试镜入场的女性经常不得不与他们继续寻求旁观者的合作。 这大致就是我们使用AI招聘工具的地方:就像管弦乐队的幕布一样,机器学习是一种范式转变,有可能消除长期存在的偏见,但它本身并不能解决几个世纪的偏见。 为了有所作为,人工智能系统需要仔细设计和审查,以确保他们真正无偏见,并且他们的部署方式不允许人力决策者重新向招聘中引入偏见处理。 走向这一点并不容易。“这是我们花费数百年来创造的一个问题。Vashishta说,长期的解决方案并不像我们五年后会遇到的问题。 与此同时,人力资源团队需要停止假设基于计算机的招聘工具本身就是客观的。相反,决策者应该要求证据表明,机器学习系统的设计是有偏见的,并且足够透明,可以识别和纠正潜在的问题。 卡鲁阿纳说,如果人工智能工具要演变成真正公正的招聘工具,人力资源团队将不得不坚持这种透明度。“如果有足够的人问,这将成为一个重要的标准,”卡鲁阿纳说。“但是如果没有人问,我们只会让偏见不断滑落。” 以上由AI翻译完成,HRTechChina倾情奉献。转载请注明。
    偏见
    2018年03月18日
  • 偏见
    Blendoor 一家新的招聘与人员分析软件减少招聘的偏见,入选SAP.IO 孵化器 Blendoor是包容性的招聘和人员分析软件,可减轻无意识偏见。候选人来自数百个战略合作伙伴和大学,并向没有姓名,照片或日期的招聘人员提供。然后,我们与公司的人力资源系统集成,根据人口统计信息跟踪候选人,以确定偏差发生的位置和方式; 这种透明度推动组织,团队甚至个人招聘经理的问责。除了衡量偏差之外,Blendoor还提供了衡量多样性和融合计划投资回报率的指标。通过数据和人工智能,我们的目标是将讨论从社交好处转移到商业智能。 Blendoor 的创始人Stephanie Lampkin是一位连续创业者,黑人女性,这次的创业项目是解决企业中对于招聘过程中的偏见。总部位于旧金山~ 在美国大家都知道对于多样性的追求和要求是具体和有详细的法律规定的,那么在招聘中如何可能更好的避免这样的问题,以及如何更好的完成多样性的招聘,Blendoor 应运而生。 Blendoor 有超过10000名多样化的候选人(We have a database of over 10,000 qualified, diverse (68% Women, 40% Black|Latino|Native, 26% technical) candidates seeking to match with companies that explicitly prioritize equity, diversity AND inclusion.) 网站地址:http://www.blendoor.com/   以上由AI翻译完成,仅供参考
    偏见
    2018年03月18日