• AI伦理
    美国首次对AI招聘歧视罚款:EEOC与iTutorGroup的法律战及其对人力资源管理的影响 美国平等就业机会委员会(EEOC)与iTutorGroup之间的法律战已成为人力资源技术界的焦点。这一事件不仅是法律上的里程碑,还为人力资源专业人员提供了关于如何在招聘过程中合理使用AI和算法工具的重要教训。 特别注意的是这个案件是美国首次针对AI驱动的招聘工具达成的和解,可能成为涉及HR Tech工具的许多诉讼的先驱。特别注意的是这是一家中资公司,算是中美合作创造一个历史~~ 案件的来龙去脉 iTutorGroup每年在美国聘请数千名导师,在家中或其他远程地点提供在线辅导。根据平等就业机会委员会的诉讼,2020 年,iTutorGroup 对其导师招聘申请软件进行了编程,自动拒绝 55 岁或以上的女性申请人和 60 岁或以上的男性申请人。iTutorGroup 以年龄为由拒绝了 200 多名美国合格申请者。EEOC随后于2022年5月起诉该公司,指控其违反了年龄歧视就业法(ADEA)。2023年8月9日,双方达成和解,iTutorGroup同意支付365,000美元赔偿。 值得注意的是,这是美国首次针对AI驱动招聘工具达成的和解。尽管此前已宣布将于2023年10月举行和解会议,但EEOC现已提前解决了此案。 此类行为违反了《就业年龄歧视法》(ADEA),该法禁止雇主基于年龄进行歧视。在双方无法达成预先协议后,平等就业机会委员会向美国纽约东区地方法院提起诉讼(平等就业机会委员会诉 iTutorGroup, Inc. 等人,民事诉讼号 1:22-cv-02565)。通过平等就业机会委员会的调解程序解决诉讼。 EEOC的立场:雇主要负责 EEOC主席Charlotte A. Burrows表示:“年龄歧视是不公正和非法的。即使技术自动化了歧视,雇主仍然要负责。”她强调。该机构最近还推出了人工智能和算法公平倡议,确保招聘和其他就业决策中使用的软件、人工智能、机器学习和其他新兴技术符合EEOC执行的联邦民权法。 对企业招聘的影响 这一事件突显了AI和算法工具在招聘过程中可能带来的风险。公司必须对其使用的技术负责,并确保其符合反歧视法律。此外,这一事件提醒所有组织,技术不是中立的,必须谨慎使用。 法律责任:公司不能仅依赖AI和算法工具进行招聘决策,而忽略可能的歧视影响。这一事件强调了公司必须对其使用的技术负责,并确保其符合反歧视法律。 技术的双刃剑:虽然AI和算法可以提高效率和准确性,但如果不当使用,也可能导致不公平和歧视。这一事件提醒所有组织,技术不是中立的,必须谨慎使用。 紧迫性:这一罚款(和解)强调了组织必须迅速采取行动,确保其招聘和其他业务流程符合法律和道德规范。对于那些尚未认真对待AI在工作场所的影响的人来说,现在是时候认真对待这个问题了。 未来展望:随着AI和算法工具在招聘和人力资源管理中的应用越来越广泛,我们可以预见未来将有更多的法规和指导方针出台,以确保这些工具的公平和透明使用。 总的来说,这一事件是一个警钟,提醒所有使用AI和算法工具的组织,必须在实施这些先进技术的同时,确保其符合法律和道德规范。这需要全面的风险评估、持续的监控和透明的报告,以确保技术不仅提高效率,还促进公平和包容。 AI对人力资源管理工作的注意事项 合规性:确保AI和算法工具符合所有适用的法律和法规,包括反歧视法。 透明度:清楚解释AI和算法是如何工作的,以及如何影响招聘决策。 持续监控:定期评估工具的性能,确保其不会导致不公平或歧视。 给广大HR的建议 了解法规:了解与AI和算法工具相关的法律和法规,确保合规。 合理选择和使用工具:选择经过验证的工具,并确保其用于增强而非替代人类决策。 培训和教育:确保HR团队了解如何合理使用这些工具,并了解可能的风险和挑战。 倡导道德使用:推动组织内部对AI和算法工具的道德使用,确保公平和透明。 我们警示 EEOC与iTutorGroup的案件是一个重要的警示,提醒所有使用AI和算法工具的组织,必须在实施这些先进技术的同时,确保其符合法律和道德规范。人力资源专业人员必须采取积极措施,确保他们的招聘流程既高效又公平,以免陷入法律纠纷。 以下是我们基于AI道德伦理在人力资源管理中的一些关键注意事项提供给大家供参考! 1. 非歧视 AI和算法工具必须设计和实施以确保不会导致任何形式的歧视。这包括基于年龄、性别、种族、宗教或其他受保护特征的歧视。组织应定期审查和测试其工具,以确保它们不会有意或无意地产生歧视效果。 2. 透明度和可解释性 AI决策过程应该是透明和可解释的。员工和应聘者有权知道决策是如何做出的,特别是当这些决策可能对他们的职业生涯产生重大影响时。这要求算法的设计者和使用者能够解释其工作原理,以及如何得出特定的结论。 3. 数据隐私 人力资源管理中使用的AI工具通常涉及大量敏感个人数据。组织必须确保这些数据的隐私和安全,并且只用于合法和透明的目的。这可能涉及确保适当的数据访问控制和加密,以及遵循所有适用的数据保护法规。 4. 公平和包容性 AI工具应该促进公平和包容性,而不是阻碍它们。这可能涉及确保工具不会无意中惩罚某些群体,或者不会加剧现有的不平等。例如,如果一个招聘算法主要依赖过去的招聘数据,它可能会无意中复制过去的偏见和不公平做法。 5. 持续监督和审查 AI和算法工具不应该是“设置并忘记”的。相反,它们应该是持续监督和审查的对象,以确保它们始终按照道德和合法的方式运作。这可能涉及定期的内部审查,以及可能的第三方道德和合规性审查。 6. 真人干预 最后,重要的是要认识到AI工具应该是人类决策过程的辅助工具,而不是替代品。应始终有机会进行人类审查和干预,特别是当涉及重大人事决策时。 总结 AI在人力资源管理中提供了巨大的机会,但也带来了一些重要的道德和伦理挑战。通过认真考虑这些问题,并采取适当的预防措施,组织可以确保他们的AI工具既强大又负责任。这不仅有助于避免法律风险,还有助于建立员工和公众对组织使用这些先进技术的信任和信心。 来源:DHRmap
    AI伦理
    2023年08月11日