-
Sruti Bhaumik
美国的AI招聘科技公司,正在被候选人陆续“告上法庭”,招聘同仁需打起十二分精神!
HRTech概述:硅谷的AI 招聘平台 Eightfold 最近被加州的求职者提起拟议集体诉讼,指控其 AI 评估系统违反《公平信用报告法(FCRA)》,在未经候选人知情同意的情况下生成“人才评分”和分析报告,并据此影响录用决策。原告指出,这类报告本质上属于受监管的消费者报告,但 Eightfold 未履行法律规定的告知、访问和纠错义务。
详细情况请关注HRTech。
一、发生了什么:Eightfold 正在被起诉的事实本身,比“AI 是否歧视”更重要
2026年1月,美国AI招聘平台 Eightfold 在加州遭遇集体诉讼。两名候选人指控 Eightfold 在招聘过程中生成并提供了对候选人的系统性评估报告,却未告知候选人,也未提供查看、纠错或申诉的机制,涉嫌违反《公平信用报告法》(FCRA)及加州相关消费者保护法规。
需要特别强调的是,这起诉讼并未围绕“算法是否存在歧视”展开,也没有指控 Eightfold 的模型在性别、种族或年龄上存在偏见。原告的核心主张集中在一个更基础的问题上:当一家第三方公司持续、规模化地生成关于个人能力、潜力和职业路径的评估结果,并被用于招聘决策时,这种行为是否已经构成法律意义上的“个人评估报告”,从而触发既有法律义务。
Eightfold 则回应称,其系统基于候选人或客户提供的数据运作,不抓取社交媒体信息,并强调自身对“负责任 AI”和合规的重视。目前案件仍处于早期阶段,但其法律路径已经对整个 HR 科技行业释放出极为清晰的信号。
二、为什么不是第一次:从 Workday 案开始,AI 招聘早已进入司法视野
事实上,Eightfold 并非第一个站在法庭聚光灯下的 HR 科技公司。在此之前,Workday 已因其招聘系统被用于筛选候选人而遭遇诉讼。尽管案件路径与法律依据不同,但两起案件共同揭示了一个趋势:司法系统正在逐步将 AI 招聘纳入既有劳动与消费者保护法律框架,而不是等待新的“AI 专属法律”。
在 Workday 案中,争议焦点更多集中在算法筛选是否可能导致系统性排除特定群体;而在 Eightfold 案中,焦点进一步前移——不再讨论“结果是否公平”,而是直接追问“这种评估是否本应受到监管”。这意味着,AI 招聘的法律风险,正在从结果层面,转向流程与结构层面。
对行业而言,这是一次非常典型的“收紧路径”:先审视系统性工具本身是否合法,再讨论其在具体场景中的影响。
三、真正的风险不在“AI 会不会犯错”,而在“AI 是否正在悄然取代判断权”
从这两起案件中,可以清晰看到一个共同点:法院和原告都并未假设 AI 必然是错误或恶意的。相反,风险的根源被定位在权力结构的变化上——当招聘判断从个体 HR 或招聘经理,转移到不可见、不可质疑、不可纠错的系统中,传统的责任机制便开始失效。
过去,面试官可以拒绝候选人而不给理由,是因为判断过程属于组织内部行为;但当判断被外包给第三方系统,并且该系统生成了结构化、可复制、可持续使用的评估结果时,法律对“知情权”和“纠错权”的要求就会随之出现。这并不是对 AI 的特殊苛责,而是对“规模化评估权力”的自然监管。
四、负责任的 AI,不是价值宣言,而是制度设计问题
在当前的讨论中,“负责任的 AI”常常被简化为道德口号或品牌声明,但从 Eightfold 与 Workday 的现实处境来看,负责任 AI 的本质并非算法是否足够先进,而在于系统是否被设计为可被审视、可被解释、可被纠错。
换句话说,真正的风险不是 AI 在“帮 HR 做决定”,而是 AI 在“替 HR 做决定,却无人对此负责”。当技术系统介入招聘的核心判断环节时,其合规性不再是附属问题,而是产品架构的一部分。
五、给HR 科技公司的几点现实建议
对HR 科技公司而言,这并不是一个遥远的美国故事,而是一份提前到来的行业样本。目前监管对个人信息的保护也越来越严格,提前做好准备。
第一,必须重新审视产品定位。如果系统不仅是“工具”,而是在输出对个人能力、潜力或适配度的评估结果,那么在设计之初就应假设其可能被视为“第三方评估系统”,并为此预留合规空间。
第二,避免“黑箱式能力叙事”。越是强调人格画像、潜力预测、未来路径判断,就越需要同步设计透明度与解释机制,否则技术优势将迅速转化为法律风险。
第三,将合规视为产品能力,而非销售障碍。可审计、可解释、可纠错的设计,不仅是法律缓冲器,也会成为企业客户在未来采购时的重要决策标准。
六、给企业 HR 的关键提醒:责任无法完全外包
对 HR 而言,Eightfold 案释放的最大信号并不是“AI 招聘是否还能用”,而是责任并不会随着系统采购而自动转移。即便今天的诉讼对象是技术供应商,一旦司法认定某类系统属于受监管评估工具,使用方的义务也将随之被重新界定。
HR 需要真正理解:AI 在招聘流程中做了什么决定、影响了哪些环节、是否形成事实上的筛选门槛。未来的 HR 能力,不仅包括招聘判断力,也包括对技术系统影响边界的判断力。
这不是反 AI,而是反“无主的决策系统”
从 Workday 到 Eightfold,这一系列案件并不意味着 AI 招聘走到了尽头,而意味着行业正在进入一个新的成熟阶段。在这个阶段,技术不再仅以效率为唯一合法性来源,而必须接受与其影响力相匹配的责任约束。
真正值得警惕的,从来不是 AI 本身,而是当决策权被系统性转移,却无人对其结果负责的那一刻。对 HR 科技公司和 HR 来说,现在正是重新校准这一边界的关键窗口期。
Sruti Bhaumik
2026年01月24日
扫一扫 加微信
hrtechchina