-
FCRA
Workday 出手反击年龄歧视指控,申请撤销求职者索赔:AI 招聘法律边界迎来首次实战检验
HRTech概述:Workday 正在就其 AI 招聘工具面临的一起年龄歧视集体诉讼采取最新法律行动。公司已向法院申请驳回求职者提出的“差别影响”索赔,主张《Age Discrimination in Employment Act(ADEA)》仅保护员工而不适用于申请人。该案源于 2023 年提起的 Mobley v. Workday,并于 2025 年升级为全国集体诉讼,涉及其 HiredScore 招聘筛选技术。随着案件推进,AI 招聘的合规与法律责任边界正成为行业关注焦点,也为所有使用自动化招聘工具的企业与 HR 敲响警钟。
美国HR科技巨头 Workday 近日在一场涉及人工智能招聘工具的集体诉讼中采取了关键法律行动,再次将“算法招聘是否构成歧视”的问题推上行业与司法的交叉点。根据其在 2026 年 1 月 21 日向法院提交的文件,Workday 请求法官驳回原告提出的“差别影响(disparate impact)年龄歧视”指控,并主张《Age Discrimination in Employment Act(ADEA)》的相关条款仅保护在职员工,而不适用于求职者,因此申请人无权据此提起索赔。
这是 Mobley v. Workday 案件的最新进展,也标志着该案进入核心法律博弈阶段。
该诉讼最早于 2023 年提起,一批求职者指控 Workday 的 AI 招聘与筛选系统在实际运行中对年龄等受保护群体产生系统性不利影响,从而减少其获得面试和录用机会。2025 年 2 月,法院批准该案以 nationwide collective action(全国集体诉讼) 形式推进,使其影响范围从个体纠纷升级为覆盖全美的大规模案件。此前,法官还要求 Workday 提供使用其 HiredScore technology 的雇主完整名单,这意味着潜在波及的不仅是供应商本身,也包括大量使用该系统的企业客户。
面对指控,Workday 的公开回应强调,其 AI 招聘工具并不会识别或使用种族、年龄、残疾等受保护特征,系统旨在协助而非取代人工决策。然而,与其围绕“算法是否存在偏见”直接交锋不同,公司此次选择从法律适用范围入手,试图通过条文解释限制求职者的诉讼资格。从策略上看,这是一种典型的程序性防御,但从行业角度看,它释放出更重要的信号:AI招聘已经从效率工具演变为法律风险源头。
事实上,这类争议并非偶发。随着算法在招聘中的参与度不断提高,从简历筛选、候选人排序到面试推荐,自动化系统正在实质性影响候选人的就业机会。在美国法律框架下,只要某项决策影响到录用结果,就可能被认定为“用工行为”,进而受到反歧视法和就业合规法规的约束。这意味着,即便决策由算法完成,雇主和系统提供方仍需承担相应责任,“技术中立”并不能成为免责理由。
更值得注意的是,监管环境也在同步收紧。包括 California 在内的多个州已经开始明确要求企业在使用自动化招聘工具时提供候选人退出机制(opt-out),并开展风险评估(risk assessments)和透明度披露。这类规定的出现,意味着算法招聘正在从创新实践进入制度化监管阶段,企业不仅要考虑效率和成本,还必须投入额外资源用于合规治理和审计管理。
从全球视角看,Workday 并不是唯一被推上风口浪尖的厂商。此前,另一家知名人才智能平台 Eightfold AI 也曾因招聘流程涉及 FCRA(Fair Credit Reporting Act) 合规问题而遭遇诉讼。两起案件虽然分别围绕 ADEA 与 FCRA 展开,但背后的逻辑高度一致:当算法参与候选人筛选与评估时,其法律属性已经等同于招聘决策本身,必须接受与人工同等标准的监管与问责。可以说,这标志着 HR 科技行业正在进入“强合规周期”,单纯依赖技术优势已难以支撑长期增长。
对中国HR从业者而言,这些案例同样具有现实意义。近年来,越来越多企业在引入 ATS、智能筛选和大模型招聘助手,希望通过自动化提升效率、降低人力成本,但往往忽视了算法透明度、公平性和合规风险的问题。在国内市场,相关监管尚处于早期阶段,但随着数据安全、反歧视和人工智能治理政策逐步完善,类似的法律责任只会越来越明确。换言之,美国正在经历的阶段,很可能是其他市场未来的预演。
因此,对于HR团队和HR科技企业来说,真正需要思考的不再是“是否使用AI”,而是“如何在合规前提下使用AI”。系统是否具备可解释性,是否保留人工复核机制,是否进行过偏见测试与风险评估,是否能够在监管问询时提供完整记录,这些问题将逐渐成为基础能力,而非加分项。
Workday 与 Eightfold 的案例表明,招聘自动化的竞争已经从“谁更智能”转向“谁更可靠”。在效率红利逐渐趋同的背景下,合规能力与风险控制能力正在成为决定企业能否长期发展的关键因素。对于任何正在推进数字化招聘的HR组织而言,这场法律博弈既是警示,也是一次重新审视技术与责任边界的机会。
-
FCRA
美国的AI招聘科技公司,正在被候选人陆续“告上法庭”,招聘同仁需打起十二分精神!
HRTech概述:硅谷的AI 招聘平台 Eightfold 最近被加州的求职者提起拟议集体诉讼,指控其 AI 评估系统违反《公平信用报告法(FCRA)》,在未经候选人知情同意的情况下生成“人才评分”和分析报告,并据此影响录用决策。原告指出,这类报告本质上属于受监管的消费者报告,但 Eightfold 未履行法律规定的告知、访问和纠错义务。
详细情况请关注HRTech。
一、发生了什么:Eightfold 正在被起诉的事实本身,比“AI 是否歧视”更重要
2026年1月,美国AI招聘平台 Eightfold 在加州遭遇集体诉讼。两名候选人指控 Eightfold 在招聘过程中生成并提供了对候选人的系统性评估报告,却未告知候选人,也未提供查看、纠错或申诉的机制,涉嫌违反《公平信用报告法》(FCRA)及加州相关消费者保护法规。
需要特别强调的是,这起诉讼并未围绕“算法是否存在歧视”展开,也没有指控 Eightfold 的模型在性别、种族或年龄上存在偏见。原告的核心主张集中在一个更基础的问题上:当一家第三方公司持续、规模化地生成关于个人能力、潜力和职业路径的评估结果,并被用于招聘决策时,这种行为是否已经构成法律意义上的“个人评估报告”,从而触发既有法律义务。
Eightfold 则回应称,其系统基于候选人或客户提供的数据运作,不抓取社交媒体信息,并强调自身对“负责任 AI”和合规的重视。目前案件仍处于早期阶段,但其法律路径已经对整个 HR 科技行业释放出极为清晰的信号。
二、为什么不是第一次:从 Workday 案开始,AI 招聘早已进入司法视野
事实上,Eightfold 并非第一个站在法庭聚光灯下的 HR 科技公司。在此之前,Workday 已因其招聘系统被用于筛选候选人而遭遇诉讼。尽管案件路径与法律依据不同,但两起案件共同揭示了一个趋势:司法系统正在逐步将 AI 招聘纳入既有劳动与消费者保护法律框架,而不是等待新的“AI 专属法律”。
在 Workday 案中,争议焦点更多集中在算法筛选是否可能导致系统性排除特定群体;而在 Eightfold 案中,焦点进一步前移——不再讨论“结果是否公平”,而是直接追问“这种评估是否本应受到监管”。这意味着,AI 招聘的法律风险,正在从结果层面,转向流程与结构层面。
对行业而言,这是一次非常典型的“收紧路径”:先审视系统性工具本身是否合法,再讨论其在具体场景中的影响。
三、真正的风险不在“AI 会不会犯错”,而在“AI 是否正在悄然取代判断权”
从这两起案件中,可以清晰看到一个共同点:法院和原告都并未假设 AI 必然是错误或恶意的。相反,风险的根源被定位在权力结构的变化上——当招聘判断从个体 HR 或招聘经理,转移到不可见、不可质疑、不可纠错的系统中,传统的责任机制便开始失效。
过去,面试官可以拒绝候选人而不给理由,是因为判断过程属于组织内部行为;但当判断被外包给第三方系统,并且该系统生成了结构化、可复制、可持续使用的评估结果时,法律对“知情权”和“纠错权”的要求就会随之出现。这并不是对 AI 的特殊苛责,而是对“规模化评估权力”的自然监管。
四、负责任的 AI,不是价值宣言,而是制度设计问题
在当前的讨论中,“负责任的 AI”常常被简化为道德口号或品牌声明,但从 Eightfold 与 Workday 的现实处境来看,负责任 AI 的本质并非算法是否足够先进,而在于系统是否被设计为可被审视、可被解释、可被纠错。
换句话说,真正的风险不是 AI 在“帮 HR 做决定”,而是 AI 在“替 HR 做决定,却无人对此负责”。当技术系统介入招聘的核心判断环节时,其合规性不再是附属问题,而是产品架构的一部分。
五、给HR 科技公司的几点现实建议
对HR 科技公司而言,这并不是一个遥远的美国故事,而是一份提前到来的行业样本。目前监管对个人信息的保护也越来越严格,提前做好准备。
第一,必须重新审视产品定位。如果系统不仅是“工具”,而是在输出对个人能力、潜力或适配度的评估结果,那么在设计之初就应假设其可能被视为“第三方评估系统”,并为此预留合规空间。
第二,避免“黑箱式能力叙事”。越是强调人格画像、潜力预测、未来路径判断,就越需要同步设计透明度与解释机制,否则技术优势将迅速转化为法律风险。
第三,将合规视为产品能力,而非销售障碍。可审计、可解释、可纠错的设计,不仅是法律缓冲器,也会成为企业客户在未来采购时的重要决策标准。
六、给企业 HR 的关键提醒:责任无法完全外包
对 HR 而言,Eightfold 案释放的最大信号并不是“AI 招聘是否还能用”,而是责任并不会随着系统采购而自动转移。即便今天的诉讼对象是技术供应商,一旦司法认定某类系统属于受监管评估工具,使用方的义务也将随之被重新界定。
HR 需要真正理解:AI 在招聘流程中做了什么决定、影响了哪些环节、是否形成事实上的筛选门槛。未来的 HR 能力,不仅包括招聘判断力,也包括对技术系统影响边界的判断力。
这不是反 AI,而是反“无主的决策系统”
从 Workday 到 Eightfold,这一系列案件并不意味着 AI 招聘走到了尽头,而意味着行业正在进入一个新的成熟阶段。在这个阶段,技术不再仅以效率为唯一合法性来源,而必须接受与其影响力相匹配的责任约束。
真正值得警惕的,从来不是 AI 本身,而是当决策权被系统性转移,却无人对其结果负责的那一刻。对 HR 科技公司和 HR 来说,现在正是重新校准这一边界的关键窗口期。
扫一扫 加微信
hrtechchina