• index
    坚守人力资本分析(People Analytics)的道德基准 编者注:这个话题应该是做PA同事的第一课,强烈推荐大家了解下。也欢迎大家就PA话题谈谈您的看法和实践。 在行动上,你对待人类的方式,无论是对你自己还是对任何其他人,决不仅仅是作为达到目的的手段,而总是同时作为目的。 - 伊曼纽尔-康德。 人力资本分析被定义为对业务结果的人的驱动因素的系统识别和量化。从康德的人本原则的角度来看,值得注意的是,这个定义没有认识到人本身就是一个目的。问题是:我们如何确保人力资本分析是合乎道德的?在本文中,我们将讨论算法的道德基准的现状,并为该领域的从业者提供建议。 算法的评估Evaluation of algorithms 我们如何评估我们算法的道德规范?欧洲通用数据保护法(GDPR)等法律框架为区分对错提供了指导。然而,合法的东西并不总是道德的。 GDPR规定了同意权、访问权、被遗忘权和知情权。然而,它没有规定员工参与人力资本分析的开发和应用的权利。而我们也一再看到,公共政策往往跟不上技术发展的速度。这意味着,很多时候,员工几乎没有或根本没有机会让自己的利益得到代表和保护。 虽然现有的伦理框架,如赫尔辛基宣言、美国心理学会(APA)的心理学家伦理原则或IEEE自主和智能系统伦理全球倡议,让我们可以更进一步地涉足这一未知领域,但它们也往往已经过了 "最佳日期"。例如,APA指南的最后一次修订是在2016年。 很多时候,由于缺乏道德和法律先例,人力资本分析团队拥有相当大的自主权。最少的指导和相互竞争的商业利益为道德违规行为提供了肥沃的土壤。 背景上下文的作用The role of context 与有效性类似,在评估我们的决定是否符合道德规范时,我们需要时刻意识到,在一个组织中行之有效的做法,在另一个组织中可能行不通。最终被认为是对的或错的东西,往往会因决策的背景和独特的利益相关者而变得非常独特。 话虽如此,我们可以利用从过去的道德过失中吸取的框架和教训。在伊曼纽尔-康德等巨人的肩膀上,填补空白。 你很可能已经遇到过AI算法的恐怖故事。这些包括亚马逊的性别偏见的人工智能招聘工具,谷歌的种族主义面部识别,以及Facebook的广告服务算法,按性别和种族歧视。让我们假设组织努力做到道德行为(这对我们中的一些人来说可能已经是一种想象力的延伸)。这些Giga公司,看似拥有无穷无尽的资源,但仍然都成为输入数据的偏见的牺牲品,引发了不必要的和无意的结果。垃圾进就是垃圾出。如果你不主动控制数据中的偏差,你的干预措施充其量只是次优。 我们如何评估人力资本分析的道德性问题的答案在于基准。基准可以衡量各种属性,并根据它们所代表的道德框架提供分数。这极大地促进了对人力资本分析伦理的系统性评估方法。具体来说,通过迫使我们开发和应用标准化的指标,基准使我们能够对背景进行编码。这使我们能够将新颖的案例与最新的技术状态进行比较和对比。 游戏的名称是确保我们的道德基准包含所有相关标准和关于这些标准的证据。使我们能够就全组织范围内部署特定算法是否符合道德标准的问题得出有效的判决。在这方面,无知不是福。确实值得注意的是,前面所引用的三个道德框架都强调了能力的根本重要性。 从当前的道德框架中衍生出的主要主题是隐私、同意、问责、安全和保障、透明度和可解释性、公平和不歧视、人对技术的控制、职业责任和促进人类价值。与这些主题交织在一起的是建立内部、结构和外部有效性的需要。 每一个关注点都会影响到数据处理和利用过程中工作流程的设计和实施。这些主题也会相互影响。如果你没有保障数据的安全,你如何守护围绕隐私的基本原则?如果你不知道你的算法是否对种族或性别或其他更多人为的品质没有不适当的偏见,你怎么能真正促进人类价值?如果你不知道你的算法是否对种族或性别或其他更人为的品质有不适当的偏见,你怎么能为一个没有内部有效性的算法承担专业责任?如果在一个问题领域中没有一个一致的应用框架,你的道德规范的重点就会有所不同。那么,你需要衡量什么来实现道德标杆也会。此外,基准化可以在透明度和可解释性方面发挥不小的作用。 然而,增加复杂性的是,优化算法的基础方法正在迅速发展。我们现在正在进入一个自动机器学习(AutoML)的时代,在这个时代,算法将选择一个最优的算法集,提供优化的解决方案。 一个探索解释人工智能新方法的新领域被称为可解释人工智能(XAI)。看看XAI方法将如何嵌入到AutoML解决方案中,这将是有趣的。 很有可能,在接下来的十年里,人力资本分析师将不得不处理那些有趣的侧例。作者预计,该领域将被民主化,选择优化模型的工作流程将被自动化。 使之实用化Making it practical 在错综复杂的道德要求编织下,此刻能实现什么? 首先,要合法。围绕人工智能已经有了法律约束,例如,与数据处理相关的隐私,GDPR是最主要的例子,但其他法律,如反歧视,也可能会适用。 Frederik Zuiderveen Borgesius教授最近为欧盟委员会进行的一项关于人工智能与歧视问题的研究指出,虽然有法律框架,但这些法律框架适应于某些类别,例如对肤色或性别的偏见。然而,人工智能可能会在新的人工类别中产生偏见,这取决于数据的基本结构和变量或特征的操作方式。 第二,阐述你的价值观,并努力遵守它们。虽然谷歌的口号 "不要做坏事 "可能会让人觉得有些不尽如人意,但它为审查和批评打开了大门。而在道德标杆方面,批评就是免费的建议。 第三,跟踪变化。认识到人工智能是有影响的,随之可能产生竞争优势,这种优势不会消失,因此值得早期投资。记录下我们在研发中面临的无数决定是如何驾驭的,这不仅有助于道德问责,也有利于与关键利益相关者的沟通。 第四,向相邻的实践领域看齐。一个实用的人工智能伦理基准需要关注一组特定的属性或指标,以符合基本的伦理原则,这些原则是可衡量的,并且与人员分析问题领域相关。它需要囊括人工智能判断的关键操作特征,这些特征在人力资源领域具有代表性。 由于我们处理的是影响真实人群的决定,我们需要区分诊断和干预目的。这与医疗领域的特性类似,例如,你可以有一个设备来评估你的健康状况,而另一个设备则保持你的心脏跳动,并在出现不正常情况时进行干预。一般来说,第二类设备的影响更直接,因此应该密切关注。FDA目前正在审查如何将软件作为医疗设备(SaDM)立法。 第五,审查可操作的基准的例子,如AI公平360,它使用广泛的方法来评估。为了获得经验,可以考虑运行他们的旅游。你注意到的是,目前在数据的抽样中保持偏见,需要对细节的精心理解。人类需要在循环中。当然,这可能会随着时间的推移而改变,但技术基准只有那些配置和部署它们的人的理解才是好的。不偏不倚的培训数据也是为了培训你的员工。 第六,考虑如何在你的过程中有针对性地进行共同开发。改变我们对人工智能培训的偏向,会影响到发明的对象。因此,干预措施本身也需要做一些调整。一旦你从数据样本中消除了偏见的来源,就要考虑与那些受你的决策影响的人进行新阶段的共同开发。只有这样,你才有机会满足康德的人性原则。 第七,审计跟踪。垃圾进就是垃圾出,要注意你的样本量和方法。比如,人类对数据进行标注,这样就可以根据这些标注对人工智能进行训练。通过训练,人类可以部署自己的偏见。因此,我们建议对你在生命周期中所做的事情进行审计跟踪。AI是组织的反映。一个可审计的生命周期使您能够在以后提供取证,以显示控制和改进您的流程。 最后,考虑作为一个社区,朝着提供培训、示例和共享空间的方向努力,以收集经验、道德实践和最佳的AI模型和基准。我们的问题领域有其独特的要求,我们作为一个社区最适合评估。 对于那些从相邻领域寻找例子的人来说,那么回顾一下放射科医生的AI-LAB(HRTech备注:AI-LAB是为了加快临床实践中人工智能(AI)的开发和采用,需要授权放射科医生在自己的美国机构中创建AI工具,以满足他们自己的患者需求。ACR AI-LAB™提供放射科医生的工具,旨在帮助他们学习AI的基础知识,并直接参与医疗保健AI的创建,验证和使用。)。 一个人力资本分析实验室将是一个中心资源,用于增长和加强思想,分享基础知识,并协商和采用机械化基准执行的道德实践。一个对社区友好的、面向未来的训练场。   作者: Stefan Mol  阿姆斯特丹大学阿姆斯特丹商学院组织行为与研究方法的助理教授 Alan Berg 阿姆斯特丹大学中央计算机服务的首席开发人员 来自人工智能人力资源,以上由AI翻译完成,仅供参考。      
    index
    2020年07月10日