• 技能模型
    负责任的AI(Responsible AI) 在招聘中的分界线:从 Workday 到 Eightfold,企业该让算法走多远? HRTech概述:全球近一半企业已在招聘中引入人工智能,用于职位描述撰写、简历筛选和候选人匹配。然而数据显示,约四成HR担心算法偏见与透明度问题。企业已经结束试点阶段,进入规模化应用阶段。成功关键不在工具数量,而在数据基础、岗位架构与治理规则。AI更适合承担高重复性任务,人类则保留判断、同理心与最终决策权。Responsible AI强调人机协作,让技术放大能力,而不是取代专业。更多请关注 HR Tech,为你带来全球最新 HR 科技资讯。 过去三年,招聘领域经历了一次前所未有的技术跃迁。生成式 AI、大模型和自动化工具迅速进入人才获取流程,从职位描述生成、简历筛选,到技能识别与候选人匹配,越来越多企业发现,招聘不再只是“人对人”的工作,而正在变成“人机协作”的系统工程。效率的提升肉眼可见:同样规模的招聘团队,可以处理数倍于过去的申请量,初筛时间从数周压缩至数小时,数据洞察也更加结构化和量化。 但当算法开始决定“谁被看到、谁被淘汰”时,问题的性质就发生了变化。招聘从来不仅仅是流程优化问题,它更关乎公平、合规与责任边界。当技术进入决策核心,企业真正需要思考的,已经不是“AI 能做什么”,而是“AI 应不应该做”。 Responsible AI 的讨论,正是在这样的背景下成为 HR 领域的新关键词。 从实践来看,AI 已经成为招聘的基础设施,而非锦上添花的工具。许多企业的招聘流程中,JD 写作、关键词筛选、候选人排序和技能标签提取都已实现自动化,部分组织甚至利用模型从非结构化简历中推断隐性能力,并为面试官生成结构化问题清单。这些能力极大释放了 HR 的时间,使团队可以从事务型工作中抽身,投入到更有价值的沟通和判断中。从效率维度看,AI 的确是必选项。 然而,风险也在同步放大。算法并非中立,它学习的是历史数据,而历史本身就可能带有偏见。如果过往录用人群集中于某些学校、性别或背景,模型极可能无意中复制甚至强化这种倾向。一旦问题存在,AI 的规模化能力反而会将偏差快速放大,形成系统性不公平。这也是为什么越来越多 HR 负责人开始意识到:招聘 AI 的挑战,并非技术成熟度,而是治理成熟度。 一些头部厂商的实践,恰好为行业提供了两个极具代表性的对照案例。 作为全球最大的人力资源系统厂商之一,Workday 近年来持续强化其 AI 能力,在招聘与人才管理中推出 Skills Cloud、自动匹配推荐和生成式 Copilot 等功能。这些工具的核心逻辑,并不是直接替代 HR 决策,而是提供“建议层”。系统可以基于海量数据推断技能相似度、识别内部人才流动机会、生成职位描述草稿,但最终的录用与晋升判断始终保留在人类手中。同时,Workday 强调模型可解释性与合规框架,在产品层面嵌入审计记录、权限管理和透明度机制,让企业清楚知道 AI 参与了哪一步、提供了什么依据。这种“增强型 AI”路径,本质上是在放大 HR 的判断力,而不是取代它。 另一家快速崛起的 Talent Intelligence 厂商 Eightfold AI 则走得更激进一些。其平台强调通过深度学习构建人才画像,实现大规模自动匹配与推荐,并宣称可以减少人为偏见、提升多元化招聘效果。然而,在实际落地过程中,外界也对算法透明度与公平性提出过质疑,甚至出现过与合规相关的争议与诉讼讨论。这类事件为行业敲响了警钟:即便技术目标是“更公平”,如果缺乏清晰的解释机制与责任边界,仍然可能带来法律与品牌风险。算法并不会自动等于公正,治理永远先于能力。 这两个案例共同揭示了一个现实:Responsible AI 的关键不在“多智能”,而在“有边界”。技术本身没有对错,真正决定风险高低的,是组织如何定义 AI 的角色。 越来越多领先企业开始采用一种更务实的分工逻辑,将招聘任务拆解为三类。对于高重复、低判断风险的环节,例如简历去重、批量筛选和流程通知,AI 完全主导是合理的选择;对于技能分析、候选人推荐或面试评分参考等场景,AI 作为辅助工具提供洞察,但仍由人类做最终判断;而在最终录用决定、文化契合评估或敏感沟通等关键节点,则必须由人类负责,算法需要主动“退场”。这种“主导—辅助—退场”的分层模型,比追求全面自动化更符合现实,也更有助于建立信任。 事实上,Responsible AI 的最大难点往往不在系统,而在组织文化。很多 HR 团队对 AI 的担忧并非来自技术本身,而是来自角色不确定性:是否会被替代?谁为结果负责?出了问题找谁?如果这些问题没有答案,再先进的工具也难以真正落地。因此,越来越多企业将重点放在 AI literacy 培训、流程标准化与治理机制建设上,让招聘经理理解 AI 能做什么、不能做什么,并在制度层面明确责任归属。只有当人类始终站在决策链条的终点,AI 才能被真正信任。 回到招聘的本质,它从来不是简单的匹配游戏,而是一种高度情境化的人类判断。候选人的潜力、团队协作能力、价值观契合度,往往难以被完全量化。算法可以帮助我们更快看到信息,但无法替我们承担责任,也无法替我们建立信任。 因此,Responsible AI 的终点,并不是“无人招聘”,而是让机器处理噪音,让人专注于真正重要的部分。当 HR 不再把时间花在翻简历和填表格,而是投入到候选人体验、组织设计与业务合作时,技术才算真正创造了价值。 说到底,招聘的未来不是 AI 或人类二选一,而是更聪明的分工。算法负责速度,人类负责温度。只有当两者各司其职,Responsible AI 才不再是口号,而是可持续的竞争力。 附录: Responsible AI in HR—推动HR工作中实践负责任AI的倡导者(简称RAIHR)—特此发起此倡议。我们呼吁所有的人力资源行业同仁一同参与,共同构建和推广RAIHR的理念,RAIHR框架包含六个关键方面:透明性、公平性、隐私性、安全性、道德性和持续性。我们倡议每一位HR专业人士在其企业内部积极主导RAIHR的实施,并鼓励HR科技产品的开发和使用都围绕这一框架展开,以实现真正的可持续发展!我们更相信RAIHR是所有参与者和倡导者的未来关键竞争优势。 发起倡议的签名地址:https://www.hrtechchina.com/raihr *RAIHR 由HRTech的Next AI专家委员会倡导成立 Responsible AI in HR(RAIHR) Responsible AI in HR(RAIHR)是指在HR实践中的AI应用遵循高标准的道德和透明性原则,确保AI决策过程公开、可审查,并且对所有利益相关者公正无偏。 这包括在招聘、员工发展、绩效管理等HR功能中,AI技术的使用既促进了工作效率,也增强了员工的工作体验和满意度。
    技能模型
    2026年02月02日
  • 技能模型
    【大咖谈】生成式人工智能AIGC和大型语言模型在人力资源管理中的七大用例! 人力资源是商业世界中最复杂的领域之一。实际上,我们对员工做出的每一个决定(雇佣谁、提拔谁、付给员工多少钱、如何促进员工发展)都是基于、经验、个人偏见和一些数据而做出的判断。由于所有企业支出的50%以上是在工资上,这些 "判断性决定 "使公司花费了大量的金钱。 在我的世界里,我们深入研究管理、领导力和人力资源的每一个部分,我们经常试图将各种 "人力资源实践 "与结果联系起来,以弄清什么是有效的。我们的大部分业务都是基于这项工作,然而随着文化、劳动力市场和技术的变化,我们每隔几年都会定期 "重新审视 "我们的大部分工作。例如,现在,我们知道工作场所的压力、薪酬平等和职业发展是提高员工满意度和劳动力生产力的主要因素。而在几年前,福利、奖金和华丽的头衔更受员工的重视。所以我想说的是,人力资源部门的大部分工作是基于组织心理学、多种形式的社会科学研究以及永无止境的实验的,而这是很难实现完美的,而且总会受到争论。 人力资源的基础数据集是文本的。人力资源和管理方面的大多数 "硬科学 "都集中在数字上。我们要求人们参加测试,我们看人们的 "绩效评级 "和平均分(这是很主观的),我们要求人们进行调查、反馈和大量的数据来做决定。然后我们把商业结果(销售、利润、市场份额)与各种人员指标联系起来,并认为 "我们有了答案"。 对于招聘和选拔,我们看的是经验、与工作相关的测试、以及面试官的意见和分数。理论上,如果我们得到足够多的这些数据,我们就可以做出越来越好的招聘决定。而当我们看谁应该晋升,谁应该降级,以及谁应该进入公司的最高层时,也会按照同样的方式进行判断。 晋升的整个前提是基于 "可晋升性 "或 "潜力 "与 "当前工作表现"(九宫格)相比较的旧观念。这种听起来很量化的方法其实充满了偏见,所以我们必须从各种评估、观察和投入中 "推断 "出谁具有高潜力。同样,当我们得到大量的数据时(观察许多高绩效者的背景和行为),我们可以提高晋升的科学性。 人力资源的核心 "科学 "往往植根于心理学,这是一个迷人的领域,研究工作中的属性、行为和心理学。尽管我非常欣赏和关注心理学,但大多数公司并不怎么使用它。因此,如果你想对你的员工的技能、经验和对不同工作的适应性进行真正的 "大数据 "分析,你要处理的是堆积如山的 "数据",其中大部分是在传记、工作成果、公司领导框架、评估和大量沟通中得到的的。当然,还有绩效评估、业务成果等等。 人力资源部门最常见的两个部分:工作申请(招聘启事)和工作描述。这两样东西都是由招聘经理或人力资源专业人员 "撰写 "出来的,通常是基于人们对工作的看法、一套公司标准以及组织需要个人具备哪些 "技术技能"。我们都知道,这些东西并不能真正预测谁会成功,因为 "成功 "在很大程度上是基于雄心壮志、学习的敏捷性、文化的适应性和与目标的一致性。 生成式人工智能和大型语言模型如何提供帮助? 鉴于我们所处的复杂、混乱的业务环境,生成性人工智能和大型语言模型可以提供什么帮助?虽然现在还为时过早,但让我大胆设想一下,人工智能的这个新分支有可能完全重塑人力资源的工作方式。在这种颠覆性的变化中,我们将看到新的平台、新的供应商和新的公司运作方式。 什么是生成式人工智能和大型语言模型? 对于那些不知道什么是生成式人工智能和大型语言模型的人来说,让我简单地说,这些人工智能系统可以对数十亿的 "标记 "进行索引、分类和集群,其中包括单词、短语、数字,甚至代码,我们只需要输入我们的问题,这些生成性人工智能就可以从众多的信息中分析、总结并给出见解性的答案。 下面是生成式人工智能和大型语言模型在人力资源领域的几个用例。 1.创建工作描述、技能指南、学习大纲等内容。 我一直认为,"描述工作 "的最好方法是观察人们在做什么。如果你实际观察、捕捉和分析员工近几个月的工作,你就可以根据实际工作来 "编写工作描述"。那么生成式人工智能可以做到这一点。 你可以使用生成式人工智能来观察 "公司的销售业务",并分析你的销售组织中的所有销售记录、销售工具和各种销售材料。而且它可能会描述 "你们公司的销售人员是做什么的",并帮助你根据真实的角色拟定现实的工作要求。 然后,如果你想知道如何培训销售人员,你可以问它 "告诉我业绩最好的人和业绩较差的人各自需要做什么"。它就会给予你之前可能不知道的东西。然后你可以要求生成型人工智能机器给出员工需要学习和了解的大纲"。然后它可以为你建立测试、在线学习指南,并最终成为你公司的 "销售教练"。 然后,你可以问生成式人工智能 "按总收入和总利润衡量,谁是我们的顶级客户",如果它能访问财务数据,它也可以回答这个问题。 因此,它不仅可以帮助你改进你所有的工作描述,还可以帮助你 "定义成功标准",帮助你 "评估谁的表现良好以及为什么这些员工能够获得良好的业绩",然后再根据回答拟定“销售培训材料"。 2.为招聘工作建立技能模型、经验模型和候选人档案。 大家都知道寻找、评估和选择 "合适的人 "来做一份工作是多么困难。现在每个人都在热衷于 "基于技能的招聘"。但这到底是什么意思?这是否意味着这个人已经通过了某种工具或编程语言的测试?这是否意味着他们有着丰富的工作经验?还是意味着他们曾在一家该领域非常出色的公司工作,他们又从那里学到了什么?这很复杂。假设你可以抓取数以百万计的员工资料,然后看看他们所做的 "工作"(即扫描Github、他们所写的文章及简历等),然后决定这个人在这项工作中 "有多好"?这几乎是不可能手工完成的,但生成式人工智能可以做到这一点。而且它可以做得更好。 假设人工智能看了这个人的工作经历,然后与其他候选人进行了比较。它可能可以告诉你哪个人的教育程度更高,哪个人的拼写能力更强,以及他们各自的个人特征。 我知道L&D供应商已经使用ChatGPT从现有的内容中建立课程计划、学习目标和技能评估。这种应用于数十亿求职者的分析可以开始向招聘人员展示谁是 "具备相似技能 "的专业人士,他们可以胜任哪个难以填补的职位。此外,通过调整这些模型还可以消除性别偏见、年龄偏见、种族偏见,因此,它们不仅更有用,实际上,也是更 "安全"的。 3.分析和改进薪酬、工资基准、奖励模式。 人力资源的第三个巨大挑战是 "给员工多少钱 "和 "为他们提供什么福利"。而这是一个非常棘手的问题。95%以上的公司已经存在薪酬公平问题而且随着通货膨胀的上升,工资需要不断变化,人力资源部门需要努力跟上。 生成式人工智能可以快速地进行薪资基准测试,评估数百万个空缺职位的薪资水平,并分析外部和劳动力市场数据,以帮助确定组织有竞争力的薪资、奖励、激励和其他福利计划。大多数公司试图通过雇用昂贵的顾问来做这件事:这些顾问应该很快就会配备人工智能支持的工具,然后你就可以自己获得这些工具。 薪酬公平也是一个需要重视的问题。虽然一些人工智能供应商开始关注这个问题,但我们从研究中得知,大多数公司有5-15%的工资总额处于某种 "不公平的薪酬 "分配模式。高薪、高任期的人会因为市场周期而获得很高的工资。我认识一些软件工程师,他们赚了50万美元或更多,只是因为他们在一个 "热门时间 "被雇用到一个热门公司。几个月后,他们的工资就比同龄人多出1.5-2倍。公司目前正在试图解决这些问题。 4. 绩效管理和反馈。 人力资源中最难的、也是经常被忽视的一部分是绩效管理、绩效评估和发展规划。虽然有数以百计的书籍和模型来定义这个过程,但它往往归结为个人的判断。而且在大多数情况下,经理在没有对员工的整个一年的工作做全面考察的情况下就给出了评价。 想象一下,如果生成式人工智能将这些工作努力且类似的岗位角色进行比较,向经理展示员工在哪些方面表现出色,哪些方面表现不佳? 今天的技术在某种程度上可以做到这一点。我最近要求Bing Chat告诉我微软2021年到2022年的财务业绩变化,它给出了很详尽的回答。许多生成式人工智能的新模型可以从员工分析中确定员工所欠缺的技能, 为之后的员工培训与发展奠定基础。 5. 教练和领导力发展。 正如我们大多数人所知,在我们的职业生涯中最有价值是 "教练"。教练是一个观察我们的工作行为,并给我们提供个人发展的反馈。他们的教练可能是也可能不是 "专家"(许多教练模式都是围绕着 "教练是心理学家 "的理念建立的),所以教练可能只是在观察我们,给我们提供急需的支持。他们可能会采访我们的同行,帮助我们看到盲点,了解挑战性的情况。 学习与发展领域的市场增长是爆炸性的。像BetterUp、CoachHub、Torch、SoundingBoard、Skillsoft和其他许多供应商已经为 "按需辅导 "创造了近10亿美元的市场。那么,如果这种辅导来自于一个智能机器人呢?医疗机构已经为预防自杀、医疗干预和其他医疗需求建立了这些系统,而且效果相当好。 想象一下,比如说,如果我不得不解雇某人。我可以很容易地问聊天机器人"我应该如何处理裁员的谈话?" 或者 "对于一个开会老是迟到的人,有什么好的指导方法?甚至"我怎样才能使我的会议更加高效?" 这些类型的问题已经被数以百万计的领导人问过数百万次,因此,智能机器人对所有这些问题都有精心设计的答案或建议。而且大多数公司现在都有领导力发展内容、合规内容和各种 "困难对话 "内容的分类。生成性人工智能系统可以很容易地找到这些内容,对其进行解释,并使其便于管理人员使用。 6.个人教练、心理健康和福祉。 也许代际人工智能的最大成功之一是出现了像 "Woebot "这样的工具,它有助于治疗心理健康、压力和自杀。这个工具是在2017年推出的,它减少了员工的压力、焦虑和自杀,其效果几乎是人工治疗的两倍。它怎么会有这么好的效果呢?因为,生成式人工智能中的反馈回路是根据人类思维模型训练的,该系统可以快速识别正在考虑自杀的用户,只需倾听语言,就能帮助相关用户放松心情。 在过去的五年里,工作场所健康市场已经发展到超过500亿美元的规模,而我们对健康组织的研究发现,典型的解决方案(EAP计划、在线教练、培训、正念)的影响比我们预期的要小。我们见证了这样一个事实:大多数关于工作场所心理健康的统计数据显示,即使在投资了数十亿美元之后,它仍然是一个需要解决的问题。因此,我们可以期待医疗保健提供商、保险公司和像Ginger.io(现在拥有Headspace)这样具有前瞻性的供应商加入这个市场。 7.人力资源自助服务和知识管理。 我将提到的最后一个用例是自助服务和知识管理。我们有成千上万的文件、合规书籍、多样性指南、安全规则、流程图来帮助员工选择福利、理解公司政策。生成式人工智能适用所有这些复杂的 "知识赋能 "和自助服务的工作流程。微软新的Power Platform与OpenAI的接口允许公司在系统中嵌入工作流程,所以你可以告诉聊天机器人 "请申请探亲假并请我的经理批准 "或 "请向IT部门提交一个案例,让我的笔记本电脑升级"。许多在人力资源运营、呼叫中心和服务交付中心工作的人几乎会立即投资于此。这意味着从Oracle到Workday到ServiceNow和ADP的每个人力资源技术供应商都将把这项技术嵌入其平台中。 生成式人工智能和大型语言模型的应用将是完美的吗?当然不是。但当我们做出成千上万的关键决定时,我相信生成式人工智能将完全改变人力资源的游戏规则。这不仅能够提高组织的运行效率,也能够塑造良好的员工体验。 文章来源:JOSHBERSIN
    技能模型
    2023年03月10日