• AI governance
    HR的影子AI行动指南: 从隐蔽使用到负责任 AI 的组织能力建设 HRTech概述:影子AI (Shadow AI) 正在成为企业的真实现状:员工早已在日常工作中使用 AI,但往往“不敢说、不敢公开”。这不是违规,而是组织真实需求的外露,是基层对效率的自主追求。影子 AI 暴露的是心理安全不足、工具体验落差,以及组织学习断裂。HR 的角色正在发生改变:不再只是制度执行者,而是 AI 文化的塑造者、心理安全的设计者、治理框架的共同构建者。四步框架——心理安全、显性化、白化机制、Responsible AI 建设——将帮助企业把“地下创新”转化为组织能力。谁能更早拥抱 Shadow AI,谁就能在下一轮 AI 浪潮中领先。 一、当 AI 早已走进一线,却还停留在管理者PPT里 在很多企业的管理层会议上,AI 依然是战略汇报中的一个章节,是技术团队路演中的一个亮点,是外部大会上反复出现的关键词;但在员工的真实日常工作中,AI 早已“悄悄上岗”。销售用 ChatGPT 改邮件、运营用生成式模型写文案、HR 自己也可能用 AI 写 JD、起绩效评语、梳理政策……只是,这一切往往都发生在“未报备、未批准、未纳管”的状态下。这就是所谓的 Shadow AI(影子 AI):员工在未正式获批、未纳入官方工具体系的前提下,自行使用各类 AI 工具完成工作目标。现有研究与市场观察都在指向同一个事实:员工实际使用 AI 的比例,远高于企业管理层的认知。而且,越是高绩效、越接近业务一线的员工,越有动力去寻找更高效的工具,也越可能成为影子 AI 的重度用户。对 HR 管理者而言,Shadow AI 不仅是一个技术或安全问题,更是一个组织问题与文化问题。如果只是简单将其视为“违规操作”,采取封堵、禁用、隔离等手段,只会把本就隐蔽的使用推向更地下的角落,让企业既承担风险,又完全丧失学习机会。本指南的出发点,是从 HRTech 与组织文化的视角,帮助 HR 管理者把 Shadow AI 从“地下水”引向“有渠道的水利系统”,把分散、隐蔽的个体实验,转化为安全、可控、可持续的 Responsible AI(负责任 AI)能力。 二、重新理解 Shadow AI:从“违规现象”到“欲望路径(Desire Path)” 如果从传统 IT 管理的视角,Shadow AI 与 Shadow IT 一样,是“未授权应用”,理应被列入风险清单。但如果我们转换视角,会看到另一层含义:Shadow AI 更像是校园里的“欲望小路(Desire Path)”——学校规划了标准道路,然而师生会按照自己的效率和习惯,踩出一条更加真实的路径;这条路径,往往比设计者想象的要合理得多。在企业中,Shadow AI 的出现,首先说明官方工具与流程无法完全满足一线需求。员工之所以绕过内部系统使用外部 AI 工具,往往不是为了规避规则,而是为了完成目标、节省时间,甚至是为了弥补现有系统的不足。其次,Shadow AI 折射出一种“不敢公开的创新”。许多员工其实已经在积累自己的提示词库、工作流模板和小型自动化流程,但出于对“被认为偷懒”“被质疑是否算自己的贡献”“被误读为岗位可被替代”的担心,他们选择不公开、不分享、不沉淀。换句话说,Shadow AI 是员工用脚投票之后留下的轨迹,是组织真实 AI 需求和真实效率突破的“热力地图”。如果企业只是从合规层面、技术控制层面去理解 Shadow AI,就会错过它作为“需求信号”和“创新线索”的价值。这也是 HR 需要主动介入的关键原因:如何将这种制度外的创新、隐蔽的效率实践,转化为可治理、可复制的组织能力。 三、Shadow AI 暴露的三大管理缺口:心理安全、工具落差与学习断裂 要把 Shadow AI 当成机会,首先要承认它是组织管理上的一面镜子。当前大量影子 AI 的存在,至少揭示了三类典型缺口。第一,AI 心理安全感缺失。员工不敢公开承认自己使用 AI,是因为在当前文化氛围下,“用 AI 完成工作”并未被正式定义为一种被鼓励的能力,反而可能被解读为“偷懒”“不够专业”,甚至被视为未来裁员时“可以被机器人替代”的证据。如果没有心理安全感,员工就不会主动说明“这里我用到了 AI”,更不会愿意把自己的 AI 工作流分享给组织,这直接阻断了企业学习的可能性。第二,官方工具与真实需求之间存在明显落差。很多企业已经在搭建内部大模型平台或 AI 助手,但常见问题包括响应缓慢、调用复杂、上下文受限、接入场景单一,甚至与员工日常使用的应用脱节。一线员工用外部 GPT 等工具可以在 30 秒完成的任务,内部工具可能需要数分钟甚至更长。一旦体验差距过大,Shadow AI 就几乎不可避免。第三,组织学习与治理机制断裂。当前不少企业对 AI 的管理仍停留在“政策下载”“使用禁令”“统一培训”的层面,缺少一个真正面向业务的、可持续的 AI 学习和治理循环:哪里出现了新的 AI 工作流,如何被发现、如何被评估、如何被白化(纳入官方)、如何被复制推广。结果是,员工的创造性实践被锁在个体层面,组织既看不到风险,也看不到机会。 四、HR 在 Shadow AI 中的独特角色:文化定义者与行为架构师 在 AI 治理的角色分工中,IT 负责技术护栏和安全架构,高管层负责战略方向与问责机制,而 HR 的核心职责在于“人”和“行为”。这意味着,HR 在 Shadow AI 问题上的角色,不是简单地转发 IT 的禁用公告,而是要通过文化、制度、激励与能力建设,把一个隐蔽、分散、个体化的现象,转化为公开的、可讨论的、可治理的集体实践。其一,HR 是 AI 心理安全感的主要设计者。心理安全感不是一句口号,而是涉及绩效评估逻辑、能力模型定义、晋升标准、沟通语境的一整套机制。HR 需要帮助管理层明确:使用 AI 是一种能力,不是作弊;公开分享 AI 使用经验,是一种贡献,而不是可疑行为。只有这样,员工才会相信“说真话是安全的”,AI 使用才能从影子状态走向阳光之下。其二,HR 是 AI 文化的塑造者。HR 可以引导企业从“工具导向”转向“文化导向”:与其问“我们有没有自己的大模型”,不如问“我们的员工能不能自然地把 AI 作为工作伙伴”。这种文化关乎是否鼓励尝试、是否允许试错、是否鼓励跨团队分享,以及是否把“AI 流畅性(AI Fluency)”写进人才画像与能力模型之中。其三,HR 是 AI 能力建设与治理框架的共同设计者。在岗位说明书、培训发展、人才盘点和组织发展项目中,HR 完全可以把“与 AI 协作的能力”“构建 AI 工作流的能力”“识别和审查 AI 输出风险的能力”作为新一代核心能力维度,并与 IT、安全、法务共同搭建 Responsible AI 的制度框架和教育体系。 五、HR Shadow AI 行动框架:从察觉现象到建立负责任 AI 体系 要从战略层面走向具体行动,HR 可以参考一个“四步式”行动框架:心理安全 → 显性化与分享 → 白化与护栏 → Responsible AI 体系化。 第一步:建立 AI 心理安全感,明确“用 AI 是被鼓励的行为”HR 需要与高管层一起,向全公司发出清晰、统一的信息:在合理边界下使用 AI,是被鼓励的;在工作中说明自己使用了 AI,不会削弱对个人能力的认可;凡是能够证明 AI 使用为业务带来实质价值的案例,都可以成为正面的组织故事。这种信息不应停留在“口头安抚”,而要落实到绩效评估标准、KPI 设定、团队例会、内部沟通中,甚至体现在领导者自身的示范行为里。只有当员工真正相信“用 AI 和说明用 AI 都是安全的”,Shadow AI 才会从“要隐藏”的状态转向“可以讨论”的状态。 第二步:建立 Shadow AI 显性化与分享机制,把个体经验变成组织资产当心理安全感初步建立后,HR 应主动设计可持续的分享机制。例如,设立跨部门 AI 使用经验分享会或内部“AI Demo Day”,开设专门的 Slack/飞书频道收集高效提示词与工作流,鼓励团队每季度提交一到两个“AI 提效案例”。同时,HR 可以配合设立激励机制,如“季度最佳 AI 工作流”“年度 AI 创新团队”等,以非物质荣誉与适度物质奖励相结合的方式,让员工知道:不仅可以公开,而且值得公开。在这一阶段,HR 的重点不在于立刻统一工具,而在于尽量全面地看见:哪些岗位、哪些业务场景、哪些流程已经自然地被 AI 改造;在哪些地方,Shadow AI 已经成为事实标准。这些信息会成为后续治理和产品化的坚实基础。 第三步:与 IT 共建“白化机制”和技术护栏,从影子实践走向合规落地当大量 Shadow AI 使用场景被可视化之后,HR 应与 IT、安全、法务组成联合治理小组,对这些场景进行分级评估:哪些场景风险较低,可以通过简单规范直接纳入官方工具;哪些场景涉及敏感数据,需要通过技术手段(如脱敏、私有化部署、安全网关等)重构方案;哪些场景暂时不宜使用外部公共模型,需要专门设计替代路径。所谓“白化机制”,并不等同于“一刀切审批”,而是一个将影子实践纳入正式工具链与风控体系的过程。例如,将员工实践中最常用的提示词整理成组织级 Prompt Library,将高频工作流固化为一键调用的自动化模板,将临时性质的“复制粘贴+外部网站”操作替换为安全 API 或内部模型调用。HR 在此过程中的角色,是确保白化过程不压制真实需求,避免以管理的名义牺牲体验,从而促使员工再次转向影子路径。 第四步:构建以 Responsible AI 为目标的治理体系,将 AI 融入人才与组织发展 当显性化、白化和护栏搭建初步完成,组织就进入了 Responsible AI(负责任 AI)的建设阶段。此时,HR 需要协同其他关键职能,搭建一个长期可运行的治理体系,而不是一次性的专项项目。在制度层面,可以明确 AI 使用政策,包括可用场景、敏感数据边界、必须进行人工复核的情形、生成内容的署名与责任划分等;在能力层面,可以将 AI 相关能力写入岗位能力模型和晋升标准,将提示词能力、AI 判断能力、工作流设计能力、风险识别能力等,作为人才发展的新维度;在教育层面,可以设计分层培训体系:对所有员工提供基础 AI 素养课程,对管理者提供“AI 驱动团队”的领导力课程,对关键岗位提供场景化的深度训练。更进一步,HR 还可以推动将 AI 相关数据纳入组织诊断与人才盘点:例如,团队内部 AI 使用质量与频率是否与业务成效相关,哪些团队在 AI 采用上明显落后,哪些岗位的任务内容已经悄然改变,需要调整职位说明与绩效权重。这些工作会让 Responsible AI 不仅停留在“安全与合规”的层面,而真正延伸到“能力与竞争力”的层面。 六、典型应用场景:从招聘到绩效,Shadow AI 如何转化为治理样板 在具体实践中,HR 可以从几个典型场景入手,将 Shadow AI 转化为治理范例。在招聘领域,许多企业已经观察到候选人利用 AI 优化简历与面试回答,同样也有招聘团队使用 AI 来撰写 JD、筛选简历、生成面试问题。HR 可以先通过工作坊收集招聘团队真实使用 AI 的方式,识别其中哪些做法有助于提高效率与候选人体验,哪些做法可能带来偏见或不透明的风险。随后,通过明确政策与技术手段,构建一个既利用 AI 增效,又能保证公平与可解释性的招聘流程,并在内部公开这些标准,以减少阴影和猜忌。在绩效与评价场景中,部分管理者可能已经使用 AI 来草拟绩效评语或反馈。HR 不应简单禁止,而应明确:AI 可以作为辅助撰写工具,但不可以替代管理者的主观判断;最终的评语内容必须由管理者审核并承担责任。同时,HR 可以为管理者提供“如何借助 AI 写出更清晰、更具建设性的反馈”的培训,将 Shadow AI 使用引导到有益和规范的方向。在日常运营和知识管理中,员工可能已经在用 AI 整理会议纪要、编写操作手册、归纳流程和 FAQ。HR 完全可以将这些实践纳入知识管理体系:通过统一工具和流程,确保重要内容可以被沉淀、可被搜索、可被版本管理;同时,对不同类型内容设置清晰的访问与保密等级,避免知识资产流失或误用。 七、从 Shadow AI 到 Responsible AI 的飞轮 从 HR 的视角,Shadow AI 不是短期要消灭的现象,而是长期需要理解和引导的“地下创新能量”。一味压制,只会带来更隐蔽的使用与更高的不可控风险;积极引导,则可以形成一个健康的飞轮:员工自发实验 → 组织建立心理安全与分享机制 → 高价值实践被识别并白化 → 在治理框架下标准化与规模化 → 反馈到文化与能力体系 → 刺激下一轮更高质量的实践。在这一过程中,HR 的角色正在发生根本变化:不再只是制度的执行者,而是 AI 文化的设计者、AI 能力模型的定义者、跨职能治理框架的共同架构者。那些能够主动拥抱 Shadow AI、从中提炼出组织机会并搭建 Responsible AI 体系的 HR 团队,将为企业赢得的不只是效率,还有在下一轮技术周期中持续演进的能力。当我们不再只把 Shadow AI 看成“要被消灭的影子”,而是把它视为“正在书写中的真实 AI 采用路线图”,HR 才真正有机会站到 AI 治理的前台,成为组织转型的关键推动者,而不是被动跟随者。 最后,HRTechChina在2024年就发起推动HR工作中实践负责任AI的倡议(简称RAIHR), 我们呼吁所有的人力资源行业同仁一同参与,共同构建和推广RAIHR的理念,RAIHR框架包含六个关键方面:透明性、公平性、隐私性、安全性、道德性和持续性。我们倡议每一位HR专业人士在其企业内部积极主导RAIHR的实施,并鼓励HR科技产品的开发和使用都围绕这一框架展开,以实现真正的可持续发展!我们更相信RAIHR是所有参与者和倡导者的未来关键竞争优势。 Responsible AI in HR(RAIHR) Responsible AI in HR(RAIHR)是指在HR实践中的AI应用遵循高标准的道德和透明性原则,确保AI决策过程公开、可审查,并且对所有利益相关者公正无偏。 这包括在招聘、员工发展、绩效管理等HR功能中,AI技术的使用既促进了工作效率,也增强了员工的工作体验和满意度。
    AI governance
    2025年12月07日
  • AI governance
    2026人力资源领域的十大趋势:从 AI 采用到“代理型转型” HRTech概述:HRTechChina每年都会聚合整理全球各个专家、媒体发布的新趋势,供大家参考,2026年的趋势是什么?你怎么看,欢迎一起讨论交流!关注HRTechChina 大家都在谈 AI 与人力资源,但 2026 年的焦点不再只是“工具”,而是——自治系统、被激发的人,以及可衡量的动能。 来自 Gartner、Mercer、麦肯锡和德勤的多份研究报告都指向同一个结论:我们正进入“代理型人力资源(Agentic HR)”时代——智能系统不再只是辅助决策,而是与我们并肩行动、共同执行。 以下是未来即将到来的十大发展趋势,以及希望保持领先的领导者应如何应对。 从“AI 采用”到“代理型运营模式” AI 助手已经是去年的话题。根据德勤预测,到 2028 年,三分之一的企业应用程序将支持“自驱动代理(self-driving agents)”,能够以极少的人类干预来感知、决策与行动。新的北极星指标将是 RoA(自主回报率,Return on Autonomy) —— 衡量人机协作在速度、信任与价值上的释放。  CHRO 从政策执行者转变为价值架构师 Gartner 2026 年调查显示,CHRO 不再优化流程,而是重新设计“工作如何创造价值”。AI 正在接管事务性任务,而 HR 的新使命,是构建一个让人类目标、数据与技术高度契合的生态系统。 技能也许是新的操作系统,但“动机”才是能源 Mercer 称“技能智能(skills intelligence)”是新的组织操作系统。确实,岗位正在逐渐消融,取而代之的是基于技能的灵活团队。但技能只能说明“人能做什么”,而动机才揭示“人为什么去做”。 下一个进化方向不只是技能智能,而是 动机智能(Motivational Intelligence™)。当企业将工作与员工内在驱动力相匹配,不只是重组团队,而是点燃组织的持续动能。未来的人力资源,不是“基于技能”,而是“由动机驱动”。 战略性劳动力规划终于走向成熟 麦肯锡的 HR Monitor 显示,多数公司仍停留在“人数规划”阶段,而非“能力规划”。2026 年将成为分水岭——能否利用 AI 预测技能缺口、驱动因素与业务结果,将决定企业的竞争层级。 人机信任将成为新的商业指标 德勤《代理型企业(Agentic Enterprise)》报告指出:自主性若缺乏信任,终将失败。我们将看到“政策即代码(policy-as-code)”、AI 审计,以及“监护型代理(guardian agents)”等机制,用以监督其他代理。AI 治理与透明度,将决定其能否真正被采纳。 经理效能被重新定义 随着 AI 自动化行政工作,管理者将重新成为“教练”。Mercer 预测,这一转变将要求全新能力:同理心、数据素养,以及 AI 导师支持下的持续反馈机制。 职业成长取代薪酬,成为留才关键 麦肯锡与 Work Institute 的研究均显示:员工离职并非因为薪酬,而是因为“停滞”。2026 年,能够让职业发展可视化、个性化、持续化的企业,将赢得人才。 员工体验 = 行为改变 Gartner 指出,HR 投资的回报不在于技术采用,而在于员工行为的改变。换句话说,关键不是工具,而是“动能”。 平台整合与代理层叠 多平台碎片化的时代即将结束。未来属于互联平台,以及能跨系统运行的 AI 层。多代理协同(multi-agent orchestration)将推动实时教练、洞察与执行,助力企业规模化运营。  变革管理进化为“变革运营” 变革将不再是事件,而是一项长期能力。它是一种“持续运转的肌肉”,通过沟通、试验与信任构建而成。德勤发现,当前仅有 44% 的员工支持重大组织变革——这一比例将决定谁能突破、谁将停滞。 结语:进入“代理型HR”的新时代 2026 不只是又一个“转型之年”,而是新纪元的开端: AI 不取代人类,而是放大人类潜能;领导者不再管理流程,而是设计生态系统;成长不再是季度指标,而是每日实践。 对于那些在构建未来的 HR 者来说——现在正是从试点走向实践的时刻:让参与转化为能量,让数据变为决策,让动机驱动可衡量的绩效。 这正是 Claro Mentor 的使命:帮助企业结合 AI 与人类动机,实现持续成长,而非条件成长。 思考提问在这 10 大趋势中,哪一个将对你所在的组织产生最大的影响? 作者:斯玛达尔·塔德莫尔  Claro-AI Mentor 首席执行官兼联合创始人
    AI governance
    2025年11月02日
  • AI governance
    AI转型时代的HR角色:从人力资源到首席AI赋能官 HRTech推荐:《HR’s Role in AI Transformation》(点击下载)报告指出,人工智能带来的不仅是技术变革,更是以人为核心的管理革命。AI能够帮助企业简化流程、提升生产力、释放时间,使员工专注于更具创造性和战略性的工作。 AI转型不是单纯的技术问题,而是“人”的变革。HR 在其中扮演“首席AI赋能官(Chief AI Enablement Officer)”的角色。 报告提出了一个“三步战略”:第一,重塑AI驱动的HR职能,包括强化数据与技术基础、建立AI治理模式、实施AI控制塔并设计未来HR岗位;第二,在HR及全组织范围内推动AI应用,重点是技能重塑与提升,构建AI赋能框架,推动员工在Know AI、Use AI、Build AI与Lead with AI四个层面成长;第三,转型劳动力,涵盖变革管理、工作设计、人与AI代理协作、以及文化引领。特别强调AI代理将成为劳动力新成员,人类与AI的组合将决定未来组织的竞争力。 引言:AI转型是一场人类与组织的双重革命过去几十年里,技术革新不断改变企业运营的方式,但人工智能的兴起无疑是迄今为止最具颠覆性的力量。它不仅仅是一场技术浪潮,更是一次深刻的“人”的变革。人工智能的发展使组织在效率、洞察力和业务增长方面迎来了前所未有的机遇,但同时也带来了治理、文化和技能方面的巨大挑战。正是在这种背景下,HR被赋予了前所未有的使命——不仅是人才管理的执行者,更要成为AI转型的推动者和引领者。本报告由ServiceNow及其合作专家撰写,提出了一份面向HR领导者的行动手册,强调CHRO应成为“首席AI赋能官”,通过三步战略,将AI真正嵌入组织运行的血液之中。 为什么HR在AI转型中处于核心地位 人工智能带来的变化远远超过了效率层面的改进。它让企业重新思考工作的设计方式、人才的定义以及组织的整体结构。报告提出,“AI是一场人文复兴”,这意味着AI的最大价值在于释放人类的潜能,让员工摆脱低价值的事务性任务,把时间和精力集中在创造力、战略思维和创新活动上。 数据印证了这一趋势。根据ServiceNow的《AI成熟度指数2025》,82%的企业计划在未来一年增加AI投资。世界经济论坛的《未来就业报告》显示,86%的雇主认为到2030年AI和信息处理技术将会深刻改变业务模式。而Accenture的调查发现,64%的员工已经意识到AI将改变他们的工作内容,需要新的技能或进行显著的再培训。然而,McKinsey的调研也指出,只有1%的高管认为他们的生成式AI落地已达到成熟水平。这一矛盾说明,虽然AI投资与应用的热度极高,但企业在治理、应用深度和人才适配上依旧存在明显差距。 在这样的背景下,HR的任务不仅是配合技术部门落地工具,而是要将AI转型与人力战略绑定起来。正如报告所强调的,“企业战略始于人才战略”,如果HR不能主动推动AI赋能,那么企业的AI转型必然流于表面。 三步战略:HR引领AI转型的完整路线图 第一部分:重塑AI驱动的HR职能 AI要在HR中真正落地,首先必须打下坚实的技术与数据基础。报告强调,HR必须与IT形成紧密的战略合作关系,而不是过去的单向依赖。两者需要共同决定数据架构、技术平台和AI伙伴的选择,从而保证数据集中、质量可控,避免出现信息孤岛。只有这样,AI应用才能覆盖全员,形成统一体验,而不是分散在多个工具中导致混乱。 在此基础上,企业应建立HR专属的AI治理模式。ServiceNow提出“AI工厂”的概念,即通过结构化流程,将AI的创意收集、评估、优先级排序、开发与治理整合在一个可重复、可扩展的框架中。这种模式既能保障创新速度,又能确保伦理、合规和业务价值的平衡。例如,ServiceNow的AI控制塔就是一个典型案例,它能够实时监测AI模型的表现、数据质量和合规性,帮助HR领导者清晰掌握AI在组织内的使用情况,避免出现偏差或风险。 更重要的是,AI不仅改变了HR的工具箱,还将深刻改变HR岗位本身。未来的HR将不再只是处理招聘、绩效和培训,而是要承担更多“产品思维”和战略角色。新兴岗位包括AI编排设计师,负责规划AI代理与业务流程的融合;员工体验设计师,专注于优化AI驱动下的员工旅程;AI伦理官,确保AI使用与企业价值观一致;人才战略师,利用预测分析塑造长期的人才布局。这些角色的出现,意味着HR正在从事务执行者转向企业未来的战略设计者。 第二部分:推动AI赋能,重塑技能与学习生态 报告的第二步战略强调,AI赋能不仅发生在HR职能内部,更要扩展到整个组织。HR的责任是帮助所有员工掌握新技能,并通过合理的框架推动全员适应AI时代的工作方式。 世界经济论坛指出,到2030年,全球劳动力中约有59%的人需要进行技能重塑或升级,其中11%可能无法获得相应机会。这是一个极大的挑战。ServiceNow的研究同样表明,几乎所有岗位都将不同程度地经历任务的自动化或增强。因此,HR需要以战略性的方式推动再培训和技能升级,把员工从事务性任务中解放出来,让他们专注于创造价值。 未来的关键技能既包括技术能力,也包括人类核心能力。在技术层面,AI、大数据、网络安全和数字素养将持续增长。在人类核心方面,创造性思维、韧性、灵活性、领导力和好奇心同样重要。报告指出,单一的技能组合已不足以支撑未来,真正的竞争力在于技术与人类技能的结合。 为此,ServiceNow提出了“Know-Use-Build-Lead”的AI赋能框架。所有员工都需要具备AI的基础知识,理解提示工程和数据隐私等基本原则(Know)。大多数员工需要掌握如何使用AI工具完成工作(Use)。技术人员则需要具备构建AI解决方案的能力(Build)。而管理者必须学会如何引导团队与AI共事,推动采用和文化转型(Lead)。这种层级化的框架确保不同层次的员工都能找到清晰的学习目标。 此外,AI热力图是一个非常直观的工具,帮助企业识别岗位中最适合AI接管的任务。例如在HR共享服务岗位,AI能够处理知识库维护、案例管理和供应商对接等事务,从而节省员工约28%的时间。这些节省下来的时间被重新分配到人才发展和战略项目中,形成了“效率—学习—价值提升”的正向循环。 ServiceNow还推出了ServiceNow University,以AI驱动的学习体验取代传统的静态培训模式。它通过预测和个性化推荐,提供从入职到深度进阶的学习路径,使员工在工作中就能完成技能提升。这种模式意味着学习将不再是周期性任务,而是与工作高度融合的持续过程。 第三部分:转型劳动力,构建人机协同的新团队 AI的普及最终会改变劳动力的定义。报告提出,AI代理(Agentic AI)不再只是工具,而是将成为组织中的“虚拟员工”。这意味着HR必须考虑如何为AI代理“入职”,如何培训它们、如何评估绩效,甚至如何与人类员工共同组成混合团队。未来的组织将由人类与AI共同构成,HR的角色是设计并治理这种新型劳动力结构。 劳动力转型的关键在于三方面。第一是变革管理。许多员工对AI存有焦虑,担心被替代。HR必须通过沟通、培训和文化建设,确保员工理解AI是赋能工具而非竞争对手。第二是工作设计。企业需要明确哪些岗位和任务由AI承担,哪些仍需人类独有的判断、创造力和同理心。第三是文化引领。AI的真正成功取决于信任,当领导者投资于员工的学习和成长时,会传递一个重要信号:员工属于企业的未来。 报告特别强调,组织必须选择是用AI来替代人以削减成本,还是通过AI增强人类潜能。如果选择后者,就能打造更有韧性和创造力的团队,并形成长期竞争优势。 AI在实践中的应用价值 为了证明上述战略的可行性,报告提供了多个案例。 在ServiceNow内部,AI已经帮助HR共享服务部门实现生产力翻倍。一名HR支持员工的数量从412人提升到881人,同时不以裁员为目标,而是通过再培训把释放出来的时间投入到人才发展与战略工作中。 在AstraZeneca,AI平台帮助替代了实验室日常的手工流程,例如试管登记与存储,每年节省超过6万小时。这些时间被重新用于药物研发,从而加速了寻找罕见疾病治疗方案的进程。 BT集团的案例展示了AI在客户体验中的威力。通过ServiceNow平台,BT将客户服务的响应时间从4.7小时缩短到1分钟,任务自动化率提升80%。同时,AI还能预测并防止网络故障,帮助客户服务人员减少55%的文书时间。 这些案例表明,AI的价值不仅在于效率,更在于通过再分配时间和资源,实现业务增长和员工发展的双重目标。 未来趋势与大赌注 报告最后提出了未来几年的重点方向。 首先是Agentic AI。AI代理将成为劳动力规划的重要组成部分,独立完成任务并大规模运作,而人类则专注于需要创造力和复杂判断的工作。 其次是以技能为核心的组织模式。AI工具可以帮助企业绘制员工技能地图,识别差距并推荐培训。这样,组织能够更敏捷地适应变化,并把AI释放的能力重新分配到关键领域。 第三是“学习即工作”。未来的学习将不再依赖周期性的培训,而是融入日常工作流程。员工在完成任务的同时,不断获得新知识和技能,保持岗位的长期适应性。 此外,治理和信任将成为AI成功的基石。Accenture的调研显示,77%的高管认为,只有在信任和治理的基础上,AI才能真正释放潜力。 结论:HR是AI时代的变革引领者 《HR’s Role in AI Transformation》(点击下载)清晰地指出,HR在AI时代的使命远超传统职责。CHRO需要承担起“首席AI赋能官”的角色,推动AI的合规治理、技能重塑与文化转型,确保技术与人才的深度融合。AI的最终价值不是取代,而是增强,当人类的创造力与AI的效率结合,企业将迎来真正的人文复兴。 对企业而言,这意味着不能仅仅把AI视作提升成本效率的工具,而要把它看作战略资产,积极管理、合理分配,并通过文化和学习机制把员工纳入转型之中。只有这样,AI才能既推动业务增长,也成就更加有意义和有韧性的职场。
    AI governance
    2025年09月08日