-
LLMs
负责任的AI(Responsible AI) 在招聘中的分界线:从 Workday 到 Eightfold,企业该让算法走多远?
HRTech概述:全球近一半企业已在招聘中引入人工智能,用于职位描述撰写、简历筛选和候选人匹配。然而数据显示,约四成HR担心算法偏见与透明度问题。企业已经结束试点阶段,进入规模化应用阶段。成功关键不在工具数量,而在数据基础、岗位架构与治理规则。AI更适合承担高重复性任务,人类则保留判断、同理心与最终决策权。Responsible AI强调人机协作,让技术放大能力,而不是取代专业。更多请关注 HR Tech,为你带来全球最新 HR 科技资讯。
过去三年,招聘领域经历了一次前所未有的技术跃迁。生成式 AI、大模型和自动化工具迅速进入人才获取流程,从职位描述生成、简历筛选,到技能识别与候选人匹配,越来越多企业发现,招聘不再只是“人对人”的工作,而正在变成“人机协作”的系统工程。效率的提升肉眼可见:同样规模的招聘团队,可以处理数倍于过去的申请量,初筛时间从数周压缩至数小时,数据洞察也更加结构化和量化。
但当算法开始决定“谁被看到、谁被淘汰”时,问题的性质就发生了变化。招聘从来不仅仅是流程优化问题,它更关乎公平、合规与责任边界。当技术进入决策核心,企业真正需要思考的,已经不是“AI 能做什么”,而是“AI 应不应该做”。
Responsible AI 的讨论,正是在这样的背景下成为 HR 领域的新关键词。
从实践来看,AI 已经成为招聘的基础设施,而非锦上添花的工具。许多企业的招聘流程中,JD 写作、关键词筛选、候选人排序和技能标签提取都已实现自动化,部分组织甚至利用模型从非结构化简历中推断隐性能力,并为面试官生成结构化问题清单。这些能力极大释放了 HR 的时间,使团队可以从事务型工作中抽身,投入到更有价值的沟通和判断中。从效率维度看,AI 的确是必选项。
然而,风险也在同步放大。算法并非中立,它学习的是历史数据,而历史本身就可能带有偏见。如果过往录用人群集中于某些学校、性别或背景,模型极可能无意中复制甚至强化这种倾向。一旦问题存在,AI 的规模化能力反而会将偏差快速放大,形成系统性不公平。这也是为什么越来越多 HR 负责人开始意识到:招聘 AI 的挑战,并非技术成熟度,而是治理成熟度。
一些头部厂商的实践,恰好为行业提供了两个极具代表性的对照案例。
作为全球最大的人力资源系统厂商之一,Workday 近年来持续强化其 AI 能力,在招聘与人才管理中推出 Skills Cloud、自动匹配推荐和生成式 Copilot 等功能。这些工具的核心逻辑,并不是直接替代 HR 决策,而是提供“建议层”。系统可以基于海量数据推断技能相似度、识别内部人才流动机会、生成职位描述草稿,但最终的录用与晋升判断始终保留在人类手中。同时,Workday 强调模型可解释性与合规框架,在产品层面嵌入审计记录、权限管理和透明度机制,让企业清楚知道 AI 参与了哪一步、提供了什么依据。这种“增强型 AI”路径,本质上是在放大 HR 的判断力,而不是取代它。
另一家快速崛起的 Talent Intelligence 厂商 Eightfold AI 则走得更激进一些。其平台强调通过深度学习构建人才画像,实现大规模自动匹配与推荐,并宣称可以减少人为偏见、提升多元化招聘效果。然而,在实际落地过程中,外界也对算法透明度与公平性提出过质疑,甚至出现过与合规相关的争议与诉讼讨论。这类事件为行业敲响了警钟:即便技术目标是“更公平”,如果缺乏清晰的解释机制与责任边界,仍然可能带来法律与品牌风险。算法并不会自动等于公正,治理永远先于能力。
这两个案例共同揭示了一个现实:Responsible AI 的关键不在“多智能”,而在“有边界”。技术本身没有对错,真正决定风险高低的,是组织如何定义 AI 的角色。
越来越多领先企业开始采用一种更务实的分工逻辑,将招聘任务拆解为三类。对于高重复、低判断风险的环节,例如简历去重、批量筛选和流程通知,AI 完全主导是合理的选择;对于技能分析、候选人推荐或面试评分参考等场景,AI 作为辅助工具提供洞察,但仍由人类做最终判断;而在最终录用决定、文化契合评估或敏感沟通等关键节点,则必须由人类负责,算法需要主动“退场”。这种“主导—辅助—退场”的分层模型,比追求全面自动化更符合现实,也更有助于建立信任。
事实上,Responsible AI 的最大难点往往不在系统,而在组织文化。很多 HR 团队对 AI 的担忧并非来自技术本身,而是来自角色不确定性:是否会被替代?谁为结果负责?出了问题找谁?如果这些问题没有答案,再先进的工具也难以真正落地。因此,越来越多企业将重点放在 AI literacy 培训、流程标准化与治理机制建设上,让招聘经理理解 AI 能做什么、不能做什么,并在制度层面明确责任归属。只有当人类始终站在决策链条的终点,AI 才能被真正信任。
回到招聘的本质,它从来不是简单的匹配游戏,而是一种高度情境化的人类判断。候选人的潜力、团队协作能力、价值观契合度,往往难以被完全量化。算法可以帮助我们更快看到信息,但无法替我们承担责任,也无法替我们建立信任。
因此,Responsible AI 的终点,并不是“无人招聘”,而是让机器处理噪音,让人专注于真正重要的部分。当 HR 不再把时间花在翻简历和填表格,而是投入到候选人体验、组织设计与业务合作时,技术才算真正创造了价值。
说到底,招聘的未来不是 AI 或人类二选一,而是更聪明的分工。算法负责速度,人类负责温度。只有当两者各司其职,Responsible AI 才不再是口号,而是可持续的竞争力。
附录:
Responsible AI in HR—推动HR工作中实践负责任AI的倡导者(简称RAIHR)—特此发起此倡议。我们呼吁所有的人力资源行业同仁一同参与,共同构建和推广RAIHR的理念,RAIHR框架包含六个关键方面:透明性、公平性、隐私性、安全性、道德性和持续性。我们倡议每一位HR专业人士在其企业内部积极主导RAIHR的实施,并鼓励HR科技产品的开发和使用都围绕这一框架展开,以实现真正的可持续发展!我们更相信RAIHR是所有参与者和倡导者的未来关键竞争优势。
发起倡议的签名地址:https://www.hrtechchina.com/raihr
*RAIHR 由HRTech的Next AI专家委员会倡导成立
Responsible AI in HR(RAIHR)
Responsible AI in HR(RAIHR)是指在HR实践中的AI应用遵循高标准的道德和透明性原则,确保AI决策过程公开、可审查,并且对所有利益相关者公正无偏。
这包括在招聘、员工发展、绩效管理等HR功能中,AI技术的使用既促进了工作效率,也增强了员工的工作体验和满意度。
-
LLMs
AI不是“理解”人类,而是“预测人类”:前Google人力资源副总裁Laszlo Bock谈职场的下一个十年挑战
在一场广受关注的主题演讲中,前Google人力资源副总裁Laszlo Bock分享了他对“AI如何重塑未来工作形态”的深度洞察。这不仅是一场关于技术的讲座,更是一份面向HR群体的战略警告和实践指南。非常值得推荐给大家!他的核心论点可以归结为三点:AI并不真正“理解”语言,它只是预测下一句话最可能出现什么词;AI将迅速改变职场结构,尤其是初级岗位和事务性工作的消失;HR若不掌握数据能力和实验逻辑,将失去为员工发声和引导组织转型的机会。
人类直觉无法判断AI边界:它看世界是“token”,不是意义
Laszlo用一个看似简单但极具颠覆性的观点开场:AI不是在“思考”,而是在“预测”。
他指出,大型语言模型(LLMs)是通过将语言拆解成“token”(语言单位)进行训练的。这些模型并不具备语义理解能力,而是基于庞大的语料库,预测下一个最有可能的token。比如,当你问AI“生成一个1到100之间的随机数”,你可能经常得到“42”这个答案。这并不是因为42有任何数学意义,而是因为它在互联网上出现频率高——尤其是在大量关于《银河系漫游指南》的内容中。
这种基于“频率预测”而非“逻辑理解”的模式导致AI具备一种“锯齿状的能力边界”——即它在某些任务上表现卓越,但在看似相似的任务上却经常出错。例如,它可以写出流畅的商业邮件,但无法准确区分事实与虚构;它可以写诗,但很难遵守准确的格式要求;它可以下棋,却经常做出输局的决策。
正因为如此,我们人类在评估AI能否胜任某项任务时,往往会被自己的“直觉”误导。
AI提升了工作绩效平均值,但并不意味着每个人都会受益
Laszlo引用了BCG与哈佛商学院的联合研究,展示AI对员工绩效的实质影响。在这项研究中,团队设计了18种与真实工作情境接近的任务,从数据分析到创意思维,从说服性表达到战略建议。结果发现,当员工使用AI工具协助完成任务时,整体绩效水平显著提升,原本员工间28%的能力差距被缩小至5%。
这意味着,未来的职场中,“差距”会被压缩,“平均”成为常态。听起来似乎是件好事,但Laszlo却抛出一个值得HR深思的问题:如果每个人都变得“高效”,组织会如何反应?是减少工时?提高薪酬?还是干脆将“平均线”当作新标准,进一步压缩人力成本?
这并非杞人忧天。历史经验告诉我们,技术进步往往首先带来“效率红利”,但最终这些红利会在某些层级被资本所吸收,而不是自动回流到员工手中。
职场结构正在重构:五类岗位首当其冲
在对未来工作的预判中,Laszlo明确指出了五类岗位或将迅速减少,甚至消失。
首先是离岸外包型工作。随着AI在数据处理、文档生成等任务中的普及,企业将更倾向于直接部署AI模型,而非将工作转包给人力成本较低的国家。
其次是初级岗位,尤其是在咨询、银行、律师事务所等以“精英路径”著称的行业。大量初级岗位的主要任务是处理数据、制作PPT、整理分析报告,这些恰恰是AI擅长的内容。
第三类是事务性小时工,例如快餐店点单员、呼叫中心客服等。这些岗位过去被认为是“不可被机器取代”的人机交互工作,如今正被AI语音助手、聊天机器人、自动点餐系统等迅速替代。
第四,组织将逐渐发现一个更棘手的问题:中层管理人才短缺。Laszlo预测,未来4至7年内,具备协调能力、能带团队、能处理人际复杂问题的管理者将变得极为稀缺,因为AI可以替代事务执行,但无法承担信任建立、冲突调和、判断取舍等高度人性化的职责。
最后,是那些“以为安全”的专业性岗位,例如金融分析师、法律助理、初级产品经理等。如果其主要职责是信息归纳与逻辑输出,同样处于AI威胁之下。
HR需重新定位:别再做“感觉派”,而要成为“实验派”
Laszlo在演讲中特别点名了HR行业的一个致命短板:很多政策和项目的设计并没有建立在实证基础之上,而是靠“经验”与“感觉”。
他列举了一些广泛存在的误区,例如:
提高员工内推奖金,并没有显著提升推荐量;
健康激励项目(如健身补贴)往往吸引的本来就是健康人;
看重名校背景的招聘标准,与员工实际绩效无关,甚至有时是负相关;
培训项目6个月后的绩效反而下降;
要求员工返岗的政策,降低了满意度,但并未提升生产力。
这些都说明,缺乏实验和数据支持的HR决策,可能带来反效果。
因此,他呼吁HR团队要向科学靠拢,掌握A/B测试、因果验证、数据解读等基本实验方法。特别是在部署AI相关工具和流程时,必须通过“高质量实验”来判断其真正影响,否则就只是被技术牵着走。
企业该如何准备?Laszlo提出六条实践路径
为了帮助企业和HR真正应对AI带来的变革,Laszlo提出了六条务实的建议。这些建议并不需要企业“砸钱买AI”,而是聚焦于“组织能力”的构建。
第一,清洗和集中数据。数据质量是AI成功的前提,脏乱差的数据只会导致错误的预测和决策。
第二,建立统计和实验能力。无论是HR项目还是AI工具的效果评估,都必须靠科学实验说话。
第三,设立“AI专责角色”。组织中应有一位专门负责AI探索的人,持续关注行业动态,并定期向管理层报告AI试点进展。
第四,选择业务最痛的地方,或个人最热情的领域作为AI试点起点。这样更容易获得支持与反馈。
第五,培养员工的学习能力,并将其作为招聘标准。因为我们无法预测未来五年最需要的技能,但可以培养出善于学习的员工。
第六,保持耐心。AI转型不是一蹴而就的。强生公司就用了三年时间,通过系统实验才明确AI的价值落点。
HR的第二次“高光时刻”已到来
Laszlo的结尾令人动容。他说,疫情期间,HR成为企业最重要的部门之一——引导组织远程办公、调整政策、守护员工心理健康。今天,随着AI浪潮席卷而来,HR再次站在战略变革的第一线。
而这一次,HR面临的不是临时危机,而是长期结构性重塑。一个真正成熟的HR团队,必须不仅能理解人,也要能理解技术;不仅能提出人本关怀,也能设计科学流程;不仅能代表员工发声,也能为组织盈利模式注入长期主义。
这既是一份挑战,更是一份召唤。
AI时代来临,每一个组织都必须重新思考“人”的价值。而HR,正是那个最应该引领答案的人。
Laszlo Bock的这场演讲,值得每一位HR反复阅读、深入讨论,并在组织内部真正落地。
如果你还没有准备好,不如从这六件事做起。
如果你已经在路上,欢迎把这篇文章分享给更多同行,一起构建一个更智慧也更有人性的未来职场。
备注:
Laszlo Bock背景介绍: 前 Google 全球人力资源高级副总裁(SVP of People Operations),Humu 联合创始人,已退出管理岗位,AI 与组织变革思想领袖。
畅销书:《Work Rules!》(2015)《重新定义公司:谷歌是如何运营的》
-
LLMs
【伦敦】数据分析平台Fluent获得690万欧元种子轮融资,以实现其AI驱动的数据分析仪横扫整个工作量的目标
改变决策者获取和使用商业数据方式的数据分析平台 Fluent 宣布完成由 Hoxton Ventures 和 Tiferes Ventures 领投的 690 万欧元种子轮投资。新投资将用于加速 Fluent 突破性技术的开发,并扩大其在欧洲的人工智能和机器学习专家团队。
Fluent 公司成立于 2021 年,是一家由人工智能驱动的数据分析师公司,它能让非技术团队成员用简单的英语直接向数据提出问题,在几秒钟内获得洞察力,并让数据团队免于手动回答临时数据请求的痛苦。
Fluent 公司首席执行官Robert Van Den Bergh说: "数据团队平均有 40% 的时间用于回答来自业务部门的问题。对数据团队来说,这些问题很多都很容易回答,但却使他们无法进行更深入、更具战略性的分析,而这些分析可能会改变他们的业务。借助 Fluent 的自然语言界面,我们可以帮助团队成员自助回答他们的数据问题。
在过去两年中,Fluent 赢得了包括贝恩公司在内的旗舰客户,实现了数据访问的民主化。
贝恩公司合伙人Ian Weber评论说: "Fluent 的平台帮助我们利用 LLMs 对大型复杂数据集进行分析并提供见解。Fluent 允许我们的非技术用户快速、高效、准确地获得所需的答案,尤其是对于预建数据仪表盘而言过于复杂或具体的问题。我们很高兴能探索 Fluent 未来如何帮助我们的客户更好地获取数据和见解。
Fluent 首席技术官Cameron Whitehead补充说:"我们的客户已经采用了 Tableau 和 Looker 等商业智能工具,希望他们的非技术团队成员能够自行查询数据,但很快就发现这些工具技术性太强,导致只有一小部分团队成员真正使用它们。Fluent 就是为了满足那些非数据专家的团队成员的需求而打造的。
自2022年OpenAI的ChatGPT推出以来,各组织一直在对该技术进行测试,以了解在哪些方面可以提高工作效率,而分析Excel文件一直是比较受欢迎的应用之一。然而,能够与组织一起扩展的企业就绪解决方案仍处于萌芽阶段,准确性和信任度方面的担忧限制了该技术的采用。Fluent 弥补了这一缺陷,提供了一个企业就绪的解决方案,让数据团队可以轻松地整理、管理和信任数据。
Hoxton Ventures 合伙人 Charles Seely 评论说: "在一个数据驱动的世界里,目前的数据分析方法是企业的短板,在他们的组织中造成了永久性的瓶颈,拖慢了每个人的速度,阻碍了决策。Fluent 的方法不仅具有创新性,而且是企业迫切需要的,我们很高兴能参与他们重塑企业与数据交互方式的旅程。
Tiferes Ventures管理合伙人、InVision联合创始人Clark Valberg补充说:"Fluent通过在每个组织层级实现实时访问数据驱动的洞察力的民主化,实现了协作智能的全新模式。我相信这是现代企业内部发生的最重要的战略和文化演变。
-
LLMs
【美国】企业就绪生成式人工智能平台供应商Yurts获得1600万美元A轮融资
总部位于加利福尼亚州旧金山的企业就绪生成式人工智能平台供应商 Yurts 获得 1600 万美元的 A 轮融资。
本轮融资由 Nava Ventures 领投,XYZ Ventures、Bloomberg Beta、Mango Capital 和 Essence VC 跟投。
公司打算利用这笔资金继续打造其安全人工智能平台,并扩大技术团队。
Yurts 由 Ben Van Roo、Guruprasad Raghavan 和 Matt Thomson 于 2022 年共同创立,是一个企业就绪的 GenAI 平台,其使命是帮助将人们与他们的工作联系起来。通过利用大型语言模型(LLMs)和 GenAI 应用程序,它正在大规模地与知识管理和企业工作流程合作。该平台允许企业:
汇聚 SharePoint、Teams、Slack、Google Docs 等不同空间的文档,将其塑造成一个可灵活控制的存储库
跨企业系统、应用程序和文档进行查找、连接和通信
通过其应用程序接口或在现有应用程序中加速工作流程
与现有系统集成,无需漫长的实施时间、高昂的 GPU 成本或内部机器学习/人工智能专家。
关于Yurts
Yurts 是一个企业就绪的人工智能生成平台。使命是通过使人工智能对企业实用,将人们与他们的最佳工作联系起来。
文章来源:finsmes
扫一扫 加微信
hrtechchina