• 雇用歧视
    人力资源如何帮助解决招聘歧视危机? 人力资源如何更好地利用AI系统来防止歧视、偏见和不平等。   雇佣歧视一直是一个挑战,人工智能的引入使这个问题变得更加复杂。人工智能算法对于非技术性的商业用户来说通常是“无法解释”的,它们的功能很快就会出错——使偏见持续存在而不是解决它。而且,当招聘场景非常规时,测试不好的算法可能会扭曲结果——如果没有人发现的话。 计算机器协会(ACM)举行了有关公平性、问责制和透明度(FAccT)的年度会议,探讨了AI、机器学习(ML)和数据科学如何与偏见相关联。而会议的主要重点领域之一是雇用歧视。 我们看了会议上提出的一些突破性论文和研究,并利用他们的发现为人力资源部门提供了有关建立最低歧视性招聘流程的见解。   人力资源如何管理人力资源技术引入的招聘歧视 我们采访了康奈尔大学和卡迪夫大学的团队,以征询他们对招聘过程中的招聘歧视问题的看法。 1.本地化自动招聘系统,以有效解决有关招聘歧视的问题 一篇题为《解决就业歧视问题意味着什么?来自英国的关于自动招聘系统的社会、技术和法律观点》着重于招聘软件本地化和使用本地招聘软件满足组织招聘需求的重要性。 来自卡迪夫大学的Javier-Sanchez Mondero、Lina Dencik和Lilian Edwards的作者认为,在英国领土(或其他地方)的各种法律背景下,美国开发的自动雇用系统可能没有用。随着这些系统(本文以HireVue、Pymetrics和Applied)为示例,在全球范围内流行起来,偏差蔓延的风险非常大。 作者在一次独家对话中告诉我们:“数据保护法规在一个国家与另一个国家之间明显不同,平等与反歧视法也是如此。” 他们补充说:“随着自动化招聘系统可能会在全球范围内标准化管理技术,需要对构成其设计基础的载有高价值假设进行彻底调查,包括他们定义偏见问题的方式,” 2.评估招聘软件供应商的开发和测试过程 对于复杂的系统,比如基于人工智能的招聘软件,总是会有一个黑匣子——人力资源可以查看和利用外部功能,而不必完全了解内部机制。根据一篇题为“减轻算法招聘中的偏见:评估索赔和实践”的论文表示,这增加了招聘歧视的风险 康奈尔大学的Manish Raghavan、Solon Barocas、Jon Kleinberg和Karen Levy的作者认为,反偏见招聘工具的技术工作并不总是受到足够的审查。具体来说,数据收集和预测目标是需要注意的两个领域。 “人力资源专业人员应要求供应商提供有关工具有效性的信息:它使用哪种数据?如何验证其建立的数据集?它对各种各样的申请人的表现如何?” 他们继续说:“他们应该询问该工具的局限性–如果仅针对特定职位测试了该工具,或者供应商没有有关该工具如何处理残疾候选人的信息。” 这些是必须要问的基本问题,尤其是在反歧视法律具体且对雇主的影响大于对招聘解决方案供应商的影响时。 (了解更多:https://hrtechchina.com/) 3.确认敏感数据属性,采取积极行动,反对歧视 组织需要了解供应商使用的敏感数据属性,例如种族和性别,以防止主动招募歧视。但是,法律要求某些公司收集此数据(例如在医疗保健中)。 公司是否应该忽略盲目的招聘策略所带来的敏感数据?或者,是否可以将敏感数据属性输入到自动录用系统中,从而使其更有效地防止录用歧视? 有论文指出:“如果公司无法或不愿收集或推断敏感的属性数据,那么提议的检测和减轻机器学习模型偏差的技术可能永远不会在实验室外实施。” 它补充说:“我们敦促包括机器学习从业者在内的利益相关者积极帮助制定一条既考虑政策目标又考虑技术需求的道路。”他强调指出,强大的数据集必须支持反偏见技术。 4.在使用招聘软件之前,检查是否符合技术道德规范 “技术伦理”领域是一个有待解释的灰色地带。一些利益相关者将其视为公关策略(或道德洗礼),一些利益相关者认为其是政治和社会行动主义的替代选择,而其他利益相关者则将讨论限制在选定的“情报”群体中。 技术必须属于哲学中更大、更主流的伦理领域,而不能在哲学之外独立运作。 这可能是你作为人力资源部还必须跟上的一个领域。人工智能伦理的保护伞和指导伦理概念的哲学将决定人力资源技术的开发、评估和实施。虽然供应商不太可能公开定义指导其算法开发的“道德规范”,但只有当HR发起这些对话时,才可能考虑道德规范。 我们必须抵制道德哲学的狭隘还原主义,认为道德哲学是工具化的表现,而不是(在技术公司中)强制实施自律计划,事实上,道德哲学有助于质疑和重新考虑任何给定的实践。 (了解更多:https://hrtechchina.com/) 5.为您的AI聘用算法建立审核框架 鉴于自动招聘的迅速增长和AI的普及,系统地研究该技术的流入数据、内部流程、产出和组织影响至关重要。这就要求建立一个正式的审计框架,该框架优先考虑消除雇用歧视。 该框架涵盖五个阶段:范围界定、映射、工件收集、测试和反思,深入研究组织中AI的确切范围、角色和结果。 “每个阶段都会产生一套文件,这些文件共同构成一份全面的审计报告,利用一个组织的价值观或原则来评估整个过程中作出的决策是否合适。它旨在缩小大规模人工智能系统开发和部署中的问责差距。”   透明度是减少聘用歧视的关键 人工智能技术看似先进,但要在招聘过程中防止歧视还有很长的路要走。 一个Glassdoor调查显示,在美国、英国、法国和德国的员工发现,员工的50%希望自己的雇主提升多元化和包容性。英国CV-Library的内部研究发现,在接受采访时,有22%的英国人受到歧视。 同时,在芬兰进行的一项研究发现,与其他种族的申请人相比,芬兰的申请人获得面试的可能性高出3.94倍。 为了解决这个问题,HR必须与其技术提供商进行诚实透明的讨论,以讨论他们声称提供的尖端技术可能产生的影响。透明度还必须扩展到候选人,以便他们确切知道为什么选择/拒绝他们。 “求职者也会从透明度中受益:除非您知道自己的评估方式,否则准备算法评估将是一项艰巨的挑战。” 为了做到这一点,人力资源不仅需要他们选择的聘用技术合作伙伴的“模糊的科学支持主张”。 来自英国的关于自动招聘系统的社会、技术和法律观点“为人力资源技术供应商和算法招聘软件供应商提供了一个重要的建议:”包括明确的验证研究,可以说是由第三方进行的,不仅在算法偏差方面,而且还提供任何证据,证明他们的评估工具是有效的。” 最后 雇用歧视可能是一个艰巨的挑战,但人力资源部门可以采取一些基本步骤来解决。除了要求人力资源技术和招聘软件供应商保持透明之外,组织还需要在内部创建相同的文化。一套强有力的价值观将确保人力资源团队提出建议并投资于正确的技术,以指导重要的人力资源决策,同时接受随着人工智能技术的发展和日趋成熟而带来的局限性。   以上由AI翻译,仅供参考! 作者:Chiradeep 来源:hrtechnologist
    雇用歧视
    2020年03月09日