• 自动化招聘人员
    偏见是真实的:人力资源AI偏见及其解决方法 随着人工智能(AI)在不同领域的兴起,关于偏见可能性的问题也越来越多。人工智能引擎并不具备与人类决策者相同的识别能力。因此,当曲解的数据被输入到一个算法中时,人工智能就有可能产生偏差。 例如,英国特许保险协会(CII)最近的一份报告发现,用于训练AI算法的数据集中普遍存在性别偏见。这也适用于其他行业。那么,企业如何才能解决人力资源中的AI偏见问题,并在道德上利用该技术的巨大潜力来改善人力资源系统呢?五位领先的专家分享了他们的见解。   检查AI偏差时要记住的五件事 有趣的是,创建AI引擎并非出于偏见。但是,如果使用有偏见的数据集进行训练,他们很可能会产生偏见。同样,开发人员直到AI引擎开始产生结果后才可能注意到。 例如,如果不断向自动化招聘人员提供数据,表明男性更适合担任技术职务,或者女性更适合需要更多软技能的工作,那么AI招聘工具将使这种偏见永存。通过与来自世界各地的人力资源专业人员的交谈,我们探讨了该问题的有趣方面。 1.您可能正在邀请一组偏斜的候选人 通常,在尝试担任软件开发人员,团队负责人,现场工作人员和C级主管等职位的申请人中,缺乏性别多样性。根本原因是工作说明的表达方式。在招聘阶段出现偏见之前,您已经在与非多样性友好的候选人群打交道。 ADP副总裁兼首席行为经济学家约旦·比恩鲍姆(Jordan Birnbaum)分享了他对此的看法:“职位描述是有偏见的温床。我们使用的单词难以置信。“竞争性”,“分析性”和“独立性”等词与“协作”,“尽责”和“善于交际”发送的潜意识信息截然不同。 “这些话不仅会影响面试官。他们向求职者发送(无意识或无意识的)信息,对最终求职者产生巨大影响。如果“ ninja”一词出现在您的职位描述中的任何地方,您可能会发现申请人的性别存在差异。” 2. AI不能保证客观的画面 我们经常假设由于基于AI的HR工具根据指定的业务规则运行,因此它们始终是客观且符合道德的。情况并非总是如此-AI的决策也可能会产生偏差,在实施前需要仔细考虑。 AVTAR集团总裁Saundarya Rajesh博士警告说,不要谬论。“当我们考虑到AI和ML在社会和商业环境中将扮演的广泛角色时,偏见的问题是无限的。AI和ML并非纯粹的客观数据分析不可知过程。 “尽管AI提供的产品非常宝贵,但必须了解这不是一个完美的系统。正如从业人员使我们相信的那样,它不会为我们提供100%正确或准确的答案。实际上,主题专家告诫我们,可能很难实现完全无偏见的招聘流程。” 3. AI偏见的根本原因在于缺乏行业多样性 随着AI的普及,技术背后的人们需要在工作场所拥抱多样性。例如,亚马逊73%的领导是男性。在Facebook,女性领导率为32.6%。当AI从历史数据中学习时,这些模式将得到加强。此外,已经发现在人工智能领域存在性别多样性危机,这意味着开发人工智能解决方案的人的比例也偏向男性。 Job.com的共同所有者Arran Stewart 详细阐述了这一挑战:“ AI的种族和性别偏见是谁拥有幕后力量的结果。超过70%的计算机程序员是白人,尽管我们尽了最大的努力去中立,我们还是在一个固有地贬低妇女和有色人种(有色人种)的社会中长大的,这显性地和隐性地告诉我们,他们的能力不及白人。 。 “这将改变我们的世界观,进而改变我们创造的技术;我们不一定是积极的女权主义者或种族主义者,但我们的环境使我们能够使未受挑战的社会根深蒂固的偏见永存。” 4.可以将人工智能转化为竞争优势  为了使基于AI的HR真正有效和公平,HR必须将注意力转移到用于机器学习模型的训练数据上。Plum的联合创始人兼首席执行官Caitlin McGregor认为,这归结为您利用的数据类型。 “市场上雇用的AI解决方案的大部分使用的是在线收集的数据。因此,大多数招聘AI解决方案都使用相同的数据集!您不想整天抬头,要意识到您的整个办公室都是由名叫贾里德(Jared)的白人组成的,这些人去过常春藤联盟,打长曲棍球,读过哈利·波特(这是一个实际例子)!” 麦格雷戈说。 克服这一问题的关键是摆脱经验和资格等特质(AI可能会对来自著名大学/公司的候选人产生偏见),而应专注于实际人才。这包括创新,适应性和沟通能力–“换句话说,您在简历上找不到的东西,”她补充道。 5.您可以为建立AI道德框架做出贡献  应对AI偏见的最后一个领域是建立一个全行业的道德AI实施框架。 今年,Google成立了高级技术外部咨询委员会(ATEAC),以开发解决AI和ML偏见的道德框架。尽管理事会的持续时间不会超过一周,但领先的公司和人力资源专业人员需要齐心协力制定和执行解决AI偏见的道德法规。 谈到人力资源领域的人工智能伦理时,HireVue的首席技术官洛伦·拉森(Loren Larsen)说:“由于人工智能技术对个人和社会的巨大潜在影响,统一的指导原则框架至关重要,并且必须在很大程度上反映出开发AI解决方案的公司的责任。如果可以创建任何真正统一的道德框架,我认为它必定是非常高级的,而且不够细致。”   选择HR技术时将减少AI偏差作为决定因素  这并不是所有的坏消息-创新者现在越来越意识到AI的偏见,并渴望设计专门针对这一挑战的解决方案。例如,梅花是一个“人类潜力量词”,可以解决偏见并支持道德人才决策。此外,基于AI的简历构建器(例如CareerBuilder的构建器)可以帮助消除潜在的招聘偏见,从而确保公平公正的招聘流程。 对于希望投资前沿技术的公司来说,这是一个绝佳时机。HR中的AI无疑会改变游戏规则,有助于更深入地发掘最聪明的人才。但是,要改变游戏规则,需要经过精心训练的算法,智能地编制招聘信息以及具有战略意义的游戏计划(就人力资源而言)。这一计划既要有道德意识,又要引人注目。 有了这些关键的细则,人工智能在你的招聘计划中继续拥有巨大的潜力。   以上由AI翻译,仅供参考! 作者:Chiradeep BasuMallick 来源:https://www.hrtechnologist.com/articles/digital-transformation/experts-on-ai-bias-in-hr/
    自动化招聘人员
    2019年10月16日