• 俄亥俄州立大学
    【风险】研究发现AI更喜欢AI写的简历:算法招聘在模型对齐时代,正在重写HR的决策逻辑 HRTech概述:AI招聘正在出现一个被严重低估的新风险。一项来自马里兰大学、新加坡国立大学和俄亥俄州立大学的研究发现,大语言模型在筛选简历时,会系统性偏向“自己生成的内容”,偏差比例高达67%–82%。更现实的是,如果候选人使用与企业相同的AI模型优化简历,被录用的概率最高可提升60%。这意味着招聘逻辑正在发生变化,从“谁更优秀”转向“谁更匹配模型”。这种AI对AI的偏差,不仅挑战招聘公平性,也可能带来新的合规风险。未来HR需要关注的不只是AI是否好用,而是AI是否公平。在过去十年中,HR 技术的核心问题一直围绕“如何减少人为偏见”,但研究提出了一个更具颠覆性的结论:即便完全消除了人类偏见,AI系统本身也会产生新的结构性偏见,而且这种偏见正在快速进入招聘流程的核心。 HRTech一句话总结就是:AI招聘的最大风险,不是歧视人,而是AI偏爱“自己人”。 这篇题为 AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights 的论文,通过大规模实证实验揭示了一个此前几乎未被商业世界认真对待的风险:当候选人与企业同时使用AI工具时,AI不仅参与决策,还会系统性偏向“与自己相似的内容”。这意味着,招聘系统正在从“评估人才”,转向“匹配模型”。 从“人类偏见”到“AI偏见”:范式已经发生变化 长期以来,HR Tech 的公平性讨论集中在人类层面,例如性别、种族、教育背景等维度的歧视问题。然而,这项研究明确指出,随着大模型(LLMs)同时进入供给侧(候选人)和需求侧(企业),一种新的偏见正在形成:AI对自身生成内容的系统性偏好,即所谓的“self-preference bias”。 研究发现,在控制简历质量的前提下,LLM 在筛选简历时对“由同一模型生成的内容”的偏好比例高达 67% 至 82%。换句话说,即使两份简历质量完全相同,只要其中一份是由筛选模型生成,它被选中的概率就显著更高。这种偏差并非偶然,而是跨多个商业模型与开源模型普遍存在。 这标志着一个关键转变:招聘中的偏见,不再只是“人类如何判断人类”,而是“AI如何判断自己”。 招聘逻辑正在被重写:从能力竞争到模型对齐 如果进一步放大到完整招聘流程,研究的影响更加直接且深远。在模拟的24个职业招聘流程中,使用与筛选系统相同模型的候选人,被列入 shortlist 的概率提高了 23% 至 60%。这种差异并非来自能力,而是来自“生成路径”。 这意味着招聘竞争的底层逻辑正在发生变化。过去,候选人的核心竞争力在于经验、能力与表达;而现在,一个隐性的变量开始介入:候选人是否“对齐”了企业所使用的AI系统。 在这一逻辑下,招聘过程逐渐演变为一种“模型生态竞争”。不同AI模型形成不同语言风格、表达结构和信息组织方式,而筛选系统天然更容易识别并偏好“与自己一致”的模式。这种现象在销售、会计等高度结构化表达的岗位中尤为明显。 从HR的视角来看,这已经不再是筛选效率问题,而是评估机制被扭曲的问题。 AI招聘系统的“隐性风险”:合规与公平性的双重挑战 这项研究最值得警惕的地方在于,它揭示的是一种“不可见的系统性偏差”。与传统歧视不同,这种偏差不基于敏感属性,因此更难被发现、审计和监管。 但在现实监管环境中,这并不意味着风险更低。相反,在美国等市场,算法招聘已经进入严格监管阶段,例如纽约市的 Automated Employment Decision Tool(AEDT)法规,要求企业对招聘算法进行偏差审计。如果AI系统在不知情的情况下偏向特定候选人群体(例如更常使用某类AI工具的人群),企业仍可能面临合规风险。 更重要的是,这种偏差会在组织内部造成“隐性不公平”:优秀候选人可能被系统性过滤,而非因为能力不足,而是因为“表达方式不符合模型偏好”。 从工具使用到系统设计:HR的角色正在上移 这项研究的真正启示,并不在于“是否使用AI”,而在于“如何设计AI驱动的招聘系统”。 在传统HR Tech中,企业更多关注工具选型与流程自动化,但在AI时代,HR必须开始承担“系统架构设计者”的角色。这包括: 首先,避免单一模型主导决策。单模型筛选会放大自我偏好偏差,多模型交叉验证或ensemble机制将成为更合理的设计路径。 其次,引入AI bias mitigation机制。研究表明,通过简单干预(例如降低模型对自身风格的识别能力),可以将偏差减少超过50%。这意味着问题是“可治理的”,但前提是企业意识到它的存在。 再次,建立“AI中立”的评估标准。标准化简历结构、弱化语言风格差异、强化结构化信息提取,可能成为未来招聘系统的重要方向。 HR Tech的下一个竞争维度:不是更智能,而是更公平 从产业视角来看,这篇论文实际上在重新定义HR Tech的竞争逻辑。过去,招聘系统的核心指标是效率与匹配度;但未来,一个新的核心指标正在浮现:公平性(fairness)与可解释性(explainability)。 这也将催生新的产品机会,包括: 一类是“AI招聘审计工具”,用于检测与量化模型偏差;一类是“多模型招聘平台”,通过模型组合降低单一偏差;另一类则是“AI-neutral内容生成工具”,帮助候选人避免被模型生态锁定。 AI招聘的真正问题,不是效率,而是“判断权” 这篇研究的深层意义,在于它揭示了一个被忽视的问题:当AI不仅参与执行,还参与判断时,它就成为了“权力结构的一部分”。 而一旦判断权被模型所主导,那么谁训练模型、谁定义风格、谁控制数据,就在间接决定“谁更容易被雇佣”。 因此,未来HR Tech最重要的问题,不再是“AI能不能用”,而是: 谁在设计AI,以及它在偏向谁。 负责任的AI:HR在下一阶段的核心能力 当AI开始参与招聘判断,甚至影响候选人结果时,“是否使用AI”已经不再是关键问题,“如何负责任地使用AI”才是HR必须正面回答的核心命题。所谓负责任的AI(Responsible AI in HR),不只是技术层面的优化,而是涉及治理、流程、数据与能力的系统性设计。 首先,企业需要建立清晰的AI治理机制,明确AI在招聘流程中的角色边界与责任归属,避免将关键决策完全外包给模型。其次,在流程层面,应引入多模型验证或人工复核机制,降低单一模型带来的系统性偏差风险。同时,数据与评估标准也需要更加结构化与中立化,减少语言风格与表达形式对结果的干扰。 更重要的是,HR团队本身需要具备“AI判断能力”,能够理解模型的局限性、识别潜在偏差,并主动设计干预机制。这意味着HR正在从“工具使用者”转变为“系统设计者”和“风险管理者”。 在AI深度嵌入人力资源管理的时代,真正具备竞争力的组织,不仅是使用AI最早的,而是能够在效率、公平与合规之间建立平衡的。负责任的AI,不只是合规要求,更将成为企业人才战略的长期护城河。
    俄亥俄州立大学
    2026年04月27日
  • 俄亥俄州立大学
    【收购】美国HR科技公司Lattice收购AI原生教练平台Mandala,加速AI原生人才平台布局,HR进入“执行时代” HRTech概述:旧金山的HR科技公司 Lattice宣布收购AI教练平台Mandala,并引入其创始人Tarun Galagali,全面加速“People + AI”战略。Mandala基于神经科学打造AI教练体系,已服务Google、Microsoft等企业,并培训3000+管理者。这次整合的关键不只是“加AI”,而是把AI嵌入到绩效管理流程中,实现实时辅导与决策支持。从“告诉你发生了什么”,转向“告诉你下一步该怎么做”。更多全球HR科技资讯,请关注HRTech。 2026年3月31日,总部位于旧金山的人力资源科技公司 Lattice 宣布收购AI原生教练平台 Mandala,并引入其创始人兼CEO Tarun Galagali,负责推进平台中AI能力的研发与落地。这一举措被视为其“People + AI”战略的重要里程碑,也标志着HR技术正从数据驱动走向AI驱动的执行阶段。 此次收购的核心在于Mandala所构建的AI-native coaching能力。Mandala基于神经科学方法论开发教练体系,并与沃顿商学院神经科学项目负责人Dr. Michael Platt合作,将行为科学与管理实践结合。其产品已在包括Google、Microsoft、Pendo、Grow Therapy等组织中应用,累计培训超过3000名管理者,形成了可验证的领导力提升路径。 Lattice计划将这一能力整合进自身平台,与其现有的Lattice AI Agent结合,进一步强化“在工作流中提供实时指导”的能力。不同于传统绩效管理系统依赖历史数据进行回顾分析,Lattice正在构建的是一个“行动导向”的AI层——不仅解释发生了什么,更直接给出下一步建议,从而推动管理行为的改变。 Lattice CEO Sarah Franklin在公告中表示,大多数平台仍停留在“告诉你发生了什么”的阶段,而Lattice正在构建的是“告诉你下一步该做什么”的能力层。这一定位本质上重新定义了绩效管理的价值,从记录工具升级为决策与执行系统。 从行业趋势来看,这一动作并非孤立。根据Gartner数据预测,到2030年,50%的HR活动将由AI自动完成或由AI Agent执行。同时,截至去年1月,已有61%的HR负责人进入生成式AI应用的高级阶段,较2023年的19%大幅提升;另有82%的HR领导者在过去一年中已规划部署Agentic AI能力。这意味着HR系统正在经历从“信息系统”向“执行系统”的结构性转型。 Mandala创始人Tarun Galagali表示,其未来工作的重点将是打造一个“基于神经科学、具有人类感知体验的AI智能层”,将人才数据转化为实际行为改变与领导力进化。这一方向与当前HRTech行业对“AI Agent”的探索高度一致,即让系统具备自主决策与执行能力,而非仅提供辅助信息。 在客户侧,这一转型同样得到验证。Pendo人力发展与战略副总裁Jessica Jolley指出,Mandala通过将个性化教练与实际管理工具结合,使管理者能够在不增加复杂性的前提下提升领导力。而Huge组织发展负责人JD Slaughter则表示,Lattice帮助其减少了低效反馈流程,同时提升了关键对话的质量与影响力。 成立于2015年的Lattice,目前服务全球近5000家企业客户,包括Brilliant Earth、Calm、Figma、Intercom和NPR等。公司近年来持续强化其在绩效管理、员工发展、薪酬与敬业度等模块的整合能力,并通过AI能力构建差异化竞争优势。 此次收购释放出一个清晰信号:HRTech的竞争焦点正在发生转移。从以数据为核心的系统能力,转向以AI驱动的行动与执行能力。对于企业而言,这意味着未来的人才管理系统,不再只是记录和分析工具,而将成为推动组织决策与行为改变的关键基础设施。 对中国HRTech同行的启示与建议 从Lattice的这次并购可以看到,全球HRTech的竞争已经不再停留在“功能完整性”或“模块覆盖度”,而是进入“是否能够驱动行为改变”的阶段。 对中国HRTech企业而言,至少有三点值得重点思考: 第一,从“数据平台”走向“执行系统”,不再只是做绩效记录、招聘管理,而是通过AI直接嵌入业务流程,输出可执行建议; 第二,构建差异化能力,不一定是通用大模型,而是像Mandala一样,在垂直场景(如管理者教练、反馈机制、组织行为)中形成方法论壁垒; 第三,重新定义产品价值,从“提升效率”升级为“提升管理质量和业务结果”,这将直接影响客户的付费意愿与长期留存。 更重要的是,HRTech若希望参与全球竞争,需要在“产品能力 + 方法论 +数据闭环”三者之间形成协同,而不仅是单点功能创新。 AI时代的赢家,很可能不是功能最多的平台,而是最接近“组织决策中枢”的系统。
    俄亥俄州立大学
    2026年04月01日