• Claude
    【警惕】AI招聘的隐形风险:从 Mercor 数据泄露到 HR“自建系统”失控边界 HRTech概述:在AI快速进入招聘与人力资源管理核心流程的当下,一个被行业系统性忽视的问题正在逐渐显现:HR不仅在使用AI工具,也在无意中成为企业数据风险与合规风险的直接承担者。近期AI招聘公司 Mercor 遭遇网络攻击的事件,与 Ben Eubanks 对“vibe coding”现象的警示,实际上共同指向同一个更深层的趋势——AI正在打破HR系统原有的边界,而组织尚未建立与之匹配的治理能力。 Mercor事件:AI招聘架构的系统性脆弱性 从表面看,Mercor事件是一次典型的数据安全事故,其攻击路径被认为与开源项目 LiteLLM 的漏洞相关。但如果从架构层面分析,这并非孤立事件,而是AI招聘系统普遍面临的结构性问题。首先,AI招聘平台天然依赖大量外部组件,包括模型接口、中间层工具和API调用,这使得系统不再是传统意义上的“封闭HR系统”,而是一个高度开放的技术网络。一旦某个环节(例如开源组件)出现漏洞,风险就会沿着调用链迅速扩散,形成供应链级别的安全事件。 其次,AI招聘系统的数据集中度显著提高。相比传统ATS仅存储简历信息,AI平台往往整合视频面试数据、评估标签、行为分析结果等更高价值的数据资产。这类数据不仅敏感程度更高,而且结构更复杂,一旦泄露,其影响远超传统数据泄露事件。第三,AI系统本身扩大了攻击面。每一个模型调用、每一次数据传输、每一个API接口,都是潜在的攻击入口。这意味着,AI并不是简单叠加在HR系统之上,而是从根本上改变了系统的风险结构。 HR自建AI工具:效率背后的合规与安全盲区 与Mercor事件几乎同步发生的,是HR领域快速兴起的“自建工具”趋势。在 ChatGPT、Claude 等生成式AI工具的推动下,越来越多HR开始尝试通过简单脚本或自动化流程优化工作。例如,将候选人简历从ATS导出,上传至AI模型进行评分,再将结果回写系统。这类流程在操作层面看似高效,但在法律与合规层面却存在明显风险。 最直接的问题是数据传输与第三方使用。当候选人数据被上传至外部AI平台时,数据是否获得授权、是否跨境传输、是否被用于模型训练,往往并不透明。在GDPR以及美国部分州的数据保护法规框架下,这种未经明确授权的数据使用,很可能已经构成违规。其次,AI参与招聘决策还涉及自动化决策与潜在歧视问题。如果AI模型参与候选人筛选或排序,企业需要具备解释其决策逻辑的能力,而“vibe coding”生成的工具通常缺乏可审计性,这在法律争议中将成为重大风险点。 更关键的是,很多HR忽略了一个根本差异:原型工具与企业级系统之间存在本质鸿沟。一个可以快速运行的脚本,并不等同于一个可以长期稳定、安全、合规运行的生产系统。企业级系统必须具备安全性、稳定性、权限控制、审计能力等一整套机制,而这些恰恰是“自建工具”最容易缺失的部分。 从工具使用者到风险承担者:HR角色的结构性变化 这两类现象叠加后,实际上揭示了HR职能的一个重要转变。过去,HR主要是流程与人员管理的执行者,而在AI时代,HR开始不可避免地承担数据治理与AI使用风险的责任。招聘流程中每一次数据调用、每一次工具接入、每一次自动化决策,都在扩展HR的责任边界。 问题在于,大多数HR团队并未为这种转变做好准备。缺乏对数据流的理解、不熟悉API调用逻辑、不了解第三方工具的合规边界,使得HR在拥有更多技术能力的同时,也暴露在更高的风险之中。这种“能力未匹配责任”的状态,使AI在HR场景中的应用呈现出一种典型的失衡:工具能力迅速提升,但治理能力严重滞后。 行业拐点:效率导向正在让位于治理能力 当前HRTech行业普遍强调AI带来的效率提升,但Mercor事件以及围绕“自建工具”的争议,正在推动行业进入一个新的阶段。未来的竞争不再仅仅取决于谁用AI更多,而在于谁能够建立清晰的数据边界与治理体系。企业需要回答的不只是“能否用AI提升效率”,而是“在什么范围内使用AI是安全且合规的”。 这意味着,HRTech产品与HR团队本身,都需要从“工具导向”转向“治理导向”。包括建立数据使用规范、明确AI参与决策的边界、区分个人效率工具与企业生产系统,以及引入必要的审计与安全机制。这些能力将成为下一阶段HR数字化转型的核心竞争力。 从风险暴露到能力建设:RAIHR正在成为行业共识 如果说 Mercor 事件揭示的是“风险已经发生”,那么当前HR领域更需要面对的问题是:我们是否具备管理这些风险的能力。 早在2024年,HRTechChina 就已经开始持续呼吁行业正视这一变化,并正式发起了“RAIHR(Responsible AI in HR)”倡议,尝试为HR在AI时代建立一套清晰的能力框架与实践边界。该倡议的核心,并不是讨论“是否使用AI”,而是回答一个更关键的问题:在使用AI的过程中,HR应该承担什么责任,以及如何建立可控、可审计、可合规的使用机制。 从实践角度看,RAIHR关注的并不是工具本身,而是三个更底层的问题:数据如何使用、决策如何产生、系统如何被管理。这恰好对应当前HR在AI应用中最容易忽视、但风险最高的三个领域。换句话说,RAIHR试图解决的,是从“工具使用能力”到“风险治理能力”的跃迁。 结合当前行业的发展阶段,可以看到一个越来越清晰的分水岭正在形成:一部分HR仍停留在“如何更高效使用AI工具”,而另一部分HR,已经开始思考“如何在不产生风险的前提下使用AI”。前者决定效率,后者决定边界与长期价值。 在这一背景下,RAIHR不再只是一个概念,而更像是一种必要的行业基础设施。随着监管趋严、企业数据风险不断上升,以及AI在招聘与管理中的深度嵌入,是否具备RAIHR能力,将逐渐成为HR专业度的重要标志之一。 对于企业而言,这意味着需要建立明确的AI使用规范与审计机制;对于HR个人而言,这意味着必须理解数据流、决策逻辑与系统边界;对于HRTech行业而言,这意味着产品与服务必须从“功能导向”走向“合规与治理导向”。 AI不会放慢进入HR的速度,但风险正在同步放大。真正的问题,不是是否使用AI,而是是否在有边界的情况下使用AI。 在这个阶段,再次呼吁行业正视这一变化:从今天开始,把“Responsible AI in HR”作为一个必须建立的基础能力,而不是一个可以延后讨论的话题。
    Claude
    2026年04月09日
  • Claude
    【重磅解读】当8万人开始依赖AI:工作正在被重新定义,而不是被加速 HRTech概要:基于8万+真实用户访谈,它揭示了一个非常关键的趋势:AI的角色正在发生结构性变化。很多人还在讨论AI是否能提高效率,但真实情况是——用户已经在用AI做更深层的事情,比如学习、决策甚至情绪支持。这意味着AI正在进入“认知层”和“心理层”。更值得关注的是一个核心发现:AI的收益和风险是绑定出现的。效率提升往往伴随着判断能力下降,学习增强可能导致认知依赖,而情绪支持则更容易形成心理依赖。而且这些问题不是提前设计出来的,而是在实际使用中逐渐出现的。 这对企业提出了一个新的问题:AI不是简单的工具,而是一种“能力交换机制”。更多全球最新HR科技趋势,请关注 HRTech 刚刚,Anthropic发布了《What 81,000 People Want from AI》研究。这份报告表面上是一次关于AI使用场景的大规模调研,实则更接近一份“人类行为结构变化”的底层观察。研究基于超过80,000份高质量访谈数据,覆盖159个国家、70种语言,在短时间内构建了一个极具代表性的样本体系。与传统问卷不同,这是一组通过AI访谈获得的开放语义数据,其核心价值不在统计分布,而在于揭示一个更深层的问题:当人们真正开始依赖AI时,他们到底在“交换什么”。 如果仅从使用场景来看,这份报告并不新颖。软件开发、写作辅助、学习支持等仍然是最主流的应用领域。但当这些使用行为被放入“需求—体验—担忧”的结构中进行分析时,一个更具解释力的模式开始浮现:AI并没有简单地提升效率,而是在重塑人类完成工作的方式本身。 AI使用的真实逻辑:从效率工具到能力外包系统 过去两年,企业引入AI的主要叙事是“效率提升”。这一逻辑在早期阶段成立,但Anthropic的研究表明,这只是表层现象。用户在访谈中呈现出的需求,实际上分布在三个递进层级:首先是效率,即自动化重复性任务;其次是认知,即辅助学习、理解复杂问题以及参与决策;第三则是情绪层面,包括缓解压力、提供陪伴以及处理关系问题。尤其值得关注的是,访谈中大量用户主动提及 grief、mental health、relationship 等内容,这类表达在传统用户研究中极为罕见,却在AI访谈中成为高频信号 。 这一变化的本质在于,AI已经从“完成任务的工具”,演变为“参与认知与情绪结构的系统”。当用户将AI用于思考、判断甚至情绪处理时,其角色已经不再是外部辅助,而是逐步嵌入到人类能力结构之中。这也是为什么单纯以“生产力工具”来理解AI,会低估其长期影响。 最关键的发现:价值与代价是同一件事的两面 这份研究最有穿透力的结论,不在于用户如何使用AI,而在于他们如何同时理解AI的好处与风险。数据表明,提到AI带来收益的用户,显著更可能同时提到其潜在问题,这种“正负共现”在多个维度上都呈现出稳定结构。效率提升往往伴随着对“虚假效率”的警惕,即用户担心自己在更快完成任务的同时,可能降低了判断质量;学习能力的增强,则对应对“认知退化”的担忧;而情绪支持,则与依赖性之间呈现出最强关联,其共现概率达到基准水平的三倍以上 。 更值得注意的是,这种风险意识并不是在使用前形成的,而是在使用过程中逐步出现。研究中区分了“经验性表达”和“预期性表达”,结果显示,基于真实使用体验的收益—风险关联显著强于基于假设的判断(φ≈0.20 vs φ≈0.07) 。这意味着,AI的影响并不是一个可以完全通过设计或培训提前控制的变量,而是一个在持续使用中不断显现的系统性后果。 换句话说,AI并不是一个“先理解再使用”的工具,而是一个“先使用再理解其代价”的系统。 AI的真正变化:从工具层进入“行为结构层” 如果将这份研究放入更广泛的产业背景中,可以发现它与当前AI技术演进路径形成了高度一致的映射。在NVIDIA GTC 2026大会上,Jensen Huang提出未来企业将同时拥有Human Workforce和Digital Workforce,而Workday、UKG等企业正在推动的Agentic AI,则进一步将AI从“响应指令”转向“主动执行任务”。 Anthropic的研究从用户行为侧验证了这一趋势。过去,工作的基本结构是“人使用工具完成任务”,工具只是延伸人类能力的外部手段。而现在,AI正在逐步参与任务的拆解、路径选择以及执行过程,在部分场景中甚至可以独立完成完整工作闭环,人类的角色转变为监督与校正。这种变化并不只是效率提升,而是将AI引入到“工作结构本身”。 当AI开始参与决策路径时,工作的定义已经发生改变。它不再是“人做什么”,而是“人和系统如何共同完成结果”。 对HR的深层影响:从“人力管理”走向“人机协同管理” 对于HR而言,这一变化的意义远远超出工具引入或技能培训层面。真正的挑战在于,企业正在从单一的人类劳动力体系,转向“人类与数字系统共同构成的劳动力结构”。这将直接冲击现有的人力资源管理逻辑。 首先,岗位定义将发生根本变化。传统岗位基于个人能力设计,而在AI参与的环境中,岗位需要围绕“人机组合能力”进行重构,即一个人能够通过AI系统实现的整体产出。其次,绩效评估将变得更加复杂。当产出部分来自AI能力时,如何区分个体贡献与系统贡献,将成为新的管理难题。更重要的是,风险管理将从边缘问题变为核心能力,因为AI的每一项能力提升,都伴随着潜在的依赖、偏差与合规风险。 在这一背景下,HR的角色也将发生转变,从“管理人”转向“设计与管理人机协同系统”。 一个被低估的本质:AI是一种能力交换机制 综合这份研究的所有发现,可以抽象出一个更具解释力的结论:AI并不是一个单向提升生产力的工具,而是一种“能力交换机制”。用户通过AI获得更高效率、更强认知支持以及更低情绪成本,但同时也在交换掉部分独立判断能力、学习路径以及心理边界。 这种交换并不是线性的,也不是完全可控的,而是在持续使用中逐步累积。正因如此,未来企业真正需要建立的,不是单一的AI应用能力,而是一套能够管理这种交换关系的体系,包括使用边界、风险识别以及行为引导。 结语:HR需要重新理解“工作”本身 Anthropic的这份研究,并没有直接回答企业“如何使用AI”的问题,但它提供了一个更基础的视角:AI正在改变的,不是工具,而是“人类如何完成工作”的基本结构。当工作从“人完成任务”转变为“人和系统共同产生结果”,HR所面对的对象、能力模型以及管理边界,都需要被重新定义。 对于中国HR科技行业而言,这不仅是一个技术趋势,更是一次关于“工作本质”的再认识。谁能够率先理解这一变化,并将其转化为组织能力,谁就有可能在下一阶段的人才竞争中占据主动。
    Claude
    2026年03月19日
  • Claude
    Anthropic报告炸场:AI时代第一批“失业高风险人群”出现——22-25岁年轻人、女性白领、知识工作者 Anthropic发布最新研究《Labor Market Impacts》(点击下载报告),通过分析Claude人工智能在真实工作中的使用数据,并映射到美国劳工部O*NET职业任务数据库,首次从“任务层面”揭示AI对劳动力市场的真实影响。研究显示,AI并不会立刻消灭大量岗位,但正在悄然改变岗位结构和职业机会分布。最先受到冲击的可能不是传统蓝领,而是三类看似稳定的人群:刚进入职场的22-25岁年轻人、在行政与运营等知识型岗位占比较高的女性白领,以及大量从事分析、内容与技术工作的知识工作者。当AI逐渐接管标准化认知任务时,企业的招聘标准、组织规模与人才成长路径都将被重新定义。Anthropic这份报告告诉我们:水位已经在变化了,变化首先发生在入口处,首先影响的是年轻人,首先体现在招聘减速而非裁员加速。这三个"首先",就是HR领导人现在需要行动的三个方向。 过去一年里,关于人工智能是否会引发大规模失业的讨论几乎每天都在发生,但真正基于真实AI使用数据的研究却并不多。Anthropic最新发布的研究《Labor Market Impacts》(点击下载报告)提供了一个不同的观察视角。研究团队没有再做抽象预测,而是直接分析Claude人工智能在真实工作中的使用记录,并将这些任务映射到美国劳工部的O*NET职业数据库,从而判断AI究竟在替代哪些工作任务、又在改变哪些职业结构。研究结论并没有像很多人担心的那样宣告“就业崩塌”,但却揭示出一个更值得警惕的趋势:AI冲击劳动力市场的第一波风险人群画像已经开始显现。 这批最早受到冲击的人,并不是传统想象中的蓝领,而是三个看似稳定的群体:22-25岁的年轻职场新人、以知识型岗位为主的白领女性,以及大量从事知识工作的专业人才。 对企业HR和组织管理者而言,这个信号比“AI会不会取代所有人”更值得关注,因为它意味着未来劳动力市场的变化可能首先发生在职场入口、职业结构和组织效率层面。 AI首先改变的不是岗位,而是岗位里的任务结构 Anthropic研究最重要的贡献之一,是把AI影响从“岗位层面”拆解到“任务层面”。在现实企业中,一个岗位通常包含多个不同类型的任务,例如信息整理、报告撰写、数据分析、沟通协调和决策判断等。研究发现,当前AI并不会一次性替代整个职位,而是优先接管那些高度结构化、可文本化、可规则化的认知任务,例如内容初稿生成、数据总结、资料整理、文档改写和信息检索。 从宏观角度看,这种变化似乎并不会立刻减少岗位数量,但它会逐渐改变岗位内部的价值结构。当AI能够完成越来越多基础任务时,企业对人类员工的期待也会随之改变:组织更需要具备判断能力、复杂问题解决能力和跨部门协调能力的人,而不是仅仅能够完成标准化执行任务的人。这种变化看似温和,却正在悄悄改变整个职场的价值体系。 第一批风险人群:22-25岁的年轻人 在Anthropic的研究中,一个值得注意的现象是,高AI暴露职业中的入门级岗位招聘正在出现放缓迹象。这并不意味着企业已经停止招聘年轻人,而是意味着很多过去由新人承担的基础任务,例如资料收集、研究整理、报告初稿、数据分析等,已经可以由AI工具完成。 在传统职业路径中,年轻人进入职场往往依赖这些低风险、低复杂度的基础工作积累经验。但当这些任务被AI接管后,企业对新人岗位的需求自然会减少。对于很多组织来说,让一名经验丰富的员工借助AI完成这些任务,往往比培养新人更高效。 这意味着未来几年,一个重要变化可能出现:年轻人进入职场的门槛将明显提高。 企业可能减少大量基础岗位,而更倾向招聘能够直接创造价值的员工。对于刚进入职场的22-25岁年轻人来说,这种变化可能是AI时代最早显现的就业冲击。 第二类风险人群:女性白领 Anthropic研究还指出,高AI暴露职业中女性比例相对更高。这并不是因为AI专门针对某一性别,而是因为很多女性比例较高的职业,如行政支持、市场营销、内容编辑、人力资源运营等,本身就包含大量文本处理、资料整理和流程协调等任务。 这些工作正是当前大型语言模型最擅长的领域。AI可以在几秒钟内完成报告草稿、邮件回复、数据总结和会议纪要等任务,而这些工作在许多企业中长期由行政、运营或HR团队承担。因此,在AI渗透的早期阶段,女性占比较高的知识型岗位可能更容易受到影响。 对企业HR而言,这种变化带来的挑战不仅是岗位调整,还涉及职业发展路径与组织公平。如果企业减少大量支持型岗位,却没有提供新的成长路径,那么组织内部的职业结构和人才培养体系都将受到冲击。 第三类风险人群:知识工作者 过去几十年中,人们普遍认为知识型职业是最安全的职业类型,因为这些岗位依赖思考、分析和创造力。然而Anthropic研究却揭示了一个反直觉的事实:AI使用最密集的领域恰恰是知识工作,例如软件开发、数据分析、市场研究和管理咨询。 原因其实并不复杂。当前AI最擅长处理的是文本、代码和信息,这正是知识工作的核心材料。例如,程序员可以使用AI生成代码框架,分析师可以利用AI整理数据和报告,营销人员可以借助AI生成文案和市场洞察。AI并不会完全取代这些职业,但它显著提高了生产效率。 当一个高能力员工借助AI可以完成过去三个人的工作时,企业自然会重新思考团队规模。长期来看,这种效率提升可能导致知识型岗位数量增长速度放缓,甚至在某些领域出现减少。 AI冲击的真正核心:组织效率革命 Anthropic研究反复强调,当前AI对就业的影响仍然处于早期阶段,但它正在改变企业组织效率。AI可以让一个小团队完成过去大团队才能完成的工作,这意味着未来企业的组织结构可能发生深刻变化。 过去,一个部门可能需要二十个人完成复杂项目;未来,借助AI工具,五到八个人的团队就可能完成同样任务。这种变化不会立刻带来裁员浪潮,但会逐渐改变企业招聘策略。组织会更加谨慎地增加员工数量,而更愿意通过技术提升现有团队效率。 对于HR领导者来说,这意味着管理逻辑需要从“岗位数量管理”转向“任务与能力管理”。企业必须重新思考岗位设计、人才培养和绩效评估,因为AI正在改变工作的基本单位。 AI时代的人才竞争规则正在改变 Anthropic的研究并没有宣称AI会迅速摧毁就业市场,但它清楚地展示了一种正在形成的趋势:AI正在改变哪些人更容易获得机会。未来职场的竞争将不再只是学历或经验的竞争,而是人与AI协作能力的竞争。 能够有效利用AI工具的人,将在效率和产出上远远领先于不会使用AI的人。与此同时,那些依赖标准化任务的岗位将逐渐减少,而需要判断力、创造力和复杂沟通能力的岗位将变得更加重要。 对HR而言,这意味着企业的人才标准必须升级。招聘时需要关注的不只是专业技能,还包括员工是否具备利用AI提升工作效率的能力。培训体系也需要调整,让员工学会在AI环境中工作,而不是把AI当成简单工具。 真正需要警惕的不是AI,而是组织准备不足 Anthropic研究最值得深思的地方,并不是它描绘了某种灾难性的就业未来,而是它提醒企业:AI对工作的影响已经开始,但大多数组织还没有真正准备好。 很多企业仍然停留在试用AI工具的阶段,而没有系统性地思考岗位设计、流程优化和组织治理。如果企业继续用过去的管理方式应对AI时代,那么效率提升带来的红利可能无法释放,反而会造成新的组织混乱。 对HR领导者来说,现在最重要的问题不再是“AI会不会取代员工”,而是“企业如何重新设计人与AI的分工”。只有在组织层面重新定义岗位结构、人才培养和管理机制,企业才能真正利用AI带来的生产率革命。 Anthropic的研究揭示了一个正在形成的现实:AI不会突然毁掉就业市场,但它正在慢慢改变谁更容易获得机会。 当年轻人、女性白领和知识工作者成为第一批高风险群体时,企业和HR必须开始思考新的职场规则,因为AI时代的劳动力市场已经悄然启动转型。
    Claude
    2026年03月07日
  • Claude
    【榜单】深度解读3月全球人力资源上市公司市值TOP10榜单——AI与利率双重影响下HR科技估值重构 HRTech概述:过去的2月全球HR上市公司TOP10市值普遍回调,ADP、Recruit、Workday等头部企业单月蒸发百亿美元级市值,中型HR SaaS跌幅更明显。本轮调整并非行业基本面恶化,而是利率预期、财报指引与AI Agent叙事叠加下的估值重构。资本市场开始从“增长优先”转向“确定性与数据控制权优先”。薪酬与合规基础设施型企业抗压能力更强,流程型工具SaaS波动更大。AI并未终结SaaS,但正在重塑价值分配逻辑。更多解读,请关注HRTech 一、榜单结论先看懂:过去的2月不是“行业坏了”,而是“估值体系变了”从2月1日到2月27日,全球人力资源上市公司TOP10市值几乎全线回调,且回调集中发生在“高估值、长久期(long-duration)的企业软件资产”上。换句话说,这更像一次资本市场对HR科技与SaaS资产的“系统性再定价”,而不是HR行业基本面在短期内发生了同等幅度的恶化。 二、2月TOP10市值变化全景:头部蒸发最显著,中段波动更剧烈2月的核心特征是:头部公司市值“绝对值回撤巨大”,中段公司“比例回撤更敏感”。 头部四家(绝对值回撤最显著):ADP:996亿美元 → 863亿美元(-133亿美元)Recruit:818亿美元 → 687亿美元(-131亿美元)Workday:461亿美元 → 352亿美元(-109亿美元)Paychex:370亿美元 → 336亿美元(-34亿美元) 中段与尾部(比例回撤更明显、排序出现变化):BOSS直聘:89亿美元 → 77亿美元Paycom:75亿美元 → 68亿美元Paylocity:73亿美元 → 57亿美元Randstad:60亿美元 → 55亿美元The Adecco Group:49亿美元 → 40亿美元SEEK:52亿美元 → 39亿美元(与Adecco在榜单尾部出现名次对调) 这组数据传递出一个非常明确的信号:2月市场并没有“推翻HR龙头格局”,但在估值层面显著降低了对HR SaaS与平台类资产的定价上限。 三、为什么会发生:三条主线叠加,触发HR SaaS估值压缩 1)宏观与利率预期:折现率上升,先杀“长久期软件”订阅制SaaS与平台公司估值高度依赖“未来现金流折现”。当市场对利率路径、风险溢价的判断转向更谨慎时,最先被重新定价的往往不是周期股,而是“需要用更长时间兑现增长”的软件股。这解释了为什么Workday、Paylocity、Paycom等波动会更显著。 2)财报季与指引:不是“数据差”,而是“达标不够”,指引更关键2月是财报密集期。以Workday为例,公司披露财季业绩后,市场对其订阅收入与销售节奏的担忧上升,股价与估值随之承压。官方披露显示其当季总收入与订阅收入仍保持增长,但市场更敏感地交易“未来几个季度的增速与大单节奏”。更直观的是,路透社将Workday的下跌与“疲软销售预期”及“AI时代竞争担忧”直接关联,并指出其股价跌至多年低位,反映投资者对其在AI冲击下的增长确定性重新评估。 3)AI Agent叙事冲击:市场担心“价值从SaaS界面层转移到Agent执行层”你提到的“Claude垂直Agent”带来的冲击,本质上不是“立刻替代SaaS收入”,而是资本市场开始重新思考:如果未来企业通过Agent完成任务,而不是通过SaaS界面完成点击式流程,那么SaaS的“Seat定价、模块溢价、界面粘性”是否会被削弱?这类担忧在2月被显著放大。TechCrunch报道Anthropic推动企业级agents项目、以插件形态切入日常工作场景,强化了“Agent进入企业流程”的想象空间。与此同时,市场对“软件股被AI恐惧情绪抛售”的描述在媒体端也出现集中表达(例如“traders dump software stocks as AI fears erupt”)。 四、结构性分化:谁更抗跌,谁更容易被“Agent情绪”影响 1)更抗跌的底层能力:薪酬与合规基础设施ADP、Paychex这类公司之所以仍稳居第一梯队,原因在于它们更接近“企业运营基础设施”:薪酬、税务、合规、雇佣关系管理等具备强监管与强数据壁垒属性。即使Agent兴起,它们更可能成为“被调用的底层系统”,而不是最先被替代的产品界面。ADP自身在财报中也强调业绩与指引的稳定性(例如对FY2026增长的更新与长期韧性表达),强化了市场对其抗周期属性的共识。 2)波动更大的中型HR SaaS:最容易被“估值与叙事”双杀Paylocity、Paycom等中型HR SaaS的典型风险点在于:业务不弱,但在市场风险偏好下降时,估值更依赖“增长叙事 + 定价权”。当投资者担心Agent压缩Seat、压缩模块溢价时,这类公司更容易出现比例回撤。 3)招聘平台:会被AI影响,但不是同一种影响BOSS直聘与SEEK这类平台被卖出,更多与两类预期相关:一是招聘市场景气度与企业招聘预算;二是AI在筛选、匹配上的效率提升会不会改变平台议价权。但要强调:招聘平台受影响往往更“周期 + 情绪”,而非短期内商业模式被替代。 五、把2月放进更大的图景:这不是“AI杀死SaaS”,而是“AI迫使SaaS重新定价”2月的下跌可以理解为一次“估值体系切换”的集中演示:过去市场更愿意用ARR增长给估值溢价;现在市场更关注:增长是否可持续、AI是否会改变价值链、企业软件是否会从“工具交互”变成“Agent执行”。路透社对Workday的报道已经把这种担忧具象化为“AI disruption fears”。因此,2月更像“市场先把不确定性价格打进去”,而不是对HR行业的终极否定。 六、对企业HR与投资者的启示:未来一年看三件事 1)谁掌握主数据与合规引擎,谁就更像“底层操作系统”AI Agent要在企业里落地,最终必须调用真实系统、真实数据、真实合规规则。底层系统的价值不会消失,但其“界面价值”可能被重估。 2)谁能把Agent嵌进产品与工作流,谁就能守住定价权下一阶段不是“有没有AI功能”,而是能否形成可计费、可规模化、可审计的Agent工作流能力。 3)增长不再等于高估值:利润质量与现金流会重新成为硬指标当市场进入“硬指标时代”,订阅收入结构、续费、净留存、自由现金流将比“故事”更重要。 七、2月是一个信号,不是终点2月TOP10市值回调的本质,是全球资本市场在AI与宏观不确定性交织下,对“企业软件资产的估值上限”做了一次集体校准。榜单格局并未被颠覆,但各细分赛道的资本耐心正在被重新分配。对于HR科技行业而言,真正的分水岭不是“是否会用AI”,而是“能否用AI重构产品价值并守住定价权”。 你这么看?欢迎交流。
    Claude
    2026年03月02日
  • Claude
    【美国】高等教育AI平台BoodleBox获得500万美元种子轮融资,加速推动高等教育领域AI协作 高等教育领域领先的协作式人工智能平台BoodleBox宣布完成500万美元种子轮融资,本轮融资由Dogwood Ventures与Osage Venture Partners联合领投。其他投资方包括JFFVentures、ECMC集团、Hivers and Strivers、Service Provider Capital、犹他谷大学狼獾基金及City Light Capital。 BoodleBox通过专为多用户负责任协作设计的统一安全界面,为学生、教师及教育机构提供GPT-5.1、Claude、Gemini、Perplexity、LLAMA等多款高端AI模型的集成访问服务。该平台专有的令牌减少技术可将AI运营成本及环境影响降低高达96%,同时保持企业级安全性和FERPA合规性。自2024年第四季度推出以来,BoodleBox已被1200多所高等教育机构和100多个工作团队的教育工作者、学生及专业人士采用。已有80余所院校选用BoodleBox的AI基础设施,使逾7万名教职员工和学生获得公平的AI使用权限。 “此次投资标志着我们使命的重要里程碑——让负责任的AI技术成为所有学习者触手可及、经济实惠且影响深远的工具,”BoodleBox首席执行官兼创始人黄芳表示。“通过实现学生、教师与多种AI模型间的无缝协作,我们不仅助力教育机构培养适应AI驱动型劳动力市场的学习者,更确保这些技能与资产能伴随他们走向毕业后的职业生涯。” 公司的解决方案正填补关键技能缺口。当前66%的雇主要求具备AI能力,但仅24%的低收入学生能接触AI工具。通过提供经济实惠、安全可靠且公平开放的人工智能访问渠道,BoodleBox确保每位学生——无论背景如何——都能掌握定义未来职业发展的核心技术能力。 “BoodleBox在填补高等教育人工智能技能缺口方面具有独特优势,”Dogwood Ventures创始管理合伙人亚伦·赫斯特表示," “公司专注于经济性、安全性及教育影响力,正在构建高校大规模开展负责任人工智能教学所需的基础设施。” 投资者信心源于BoodleBox的快速发展势头与独特产品优势。该平台不仅整合了顶尖人工智能模型,还提供定制化机器人构建、跨团队人工智能协作、人工智能辅导以及独特的数据可移植性,使毕业生能够将人工智能辅助成果带入职业生涯。 JFFVentures管理合伙人萨巴里·拉贾表示:“作为致力于推动公平就业解决方案的投资方,我们认为BoodleBox是确保所有学生——而非仅限精英群体——掌握人工智能技能的关键工具。” 通过降低成本门槛、扩大使用范围并实现数据可移植性,BoodleBox契合了我们赋能弱势学习者的使命——让他们掌握在人工智能变革的经济中蓬勃发展的技能与机遇。" "我们很高兴与BoodleBox合作!作为学生,我们深知生成式人工智能将定义我们这一代人的技术。我们一直在寻找不仅是工具,更是一个安全可靠、协作共享且寓教于乐的平台,帮助学生获取所需AI技能,同时定价符合学校预算——BoodleBox正是这样的存在。这次合作意义非凡,因为我们投资的产品正是我们作为学生所需所求。我们自豪地支持其使命——让未来工程师、医生、政治家及各领域专业人士更便捷地获取高等教育与人工智能技能。" 借助新增资金,BoodleBox计划拓展高等教育领域布局,增强平台功能,并推动人工智能协作在企业培训、公共机构及专业领域等新兴板块的应用价值。 BoodleBox还将把主要总部迁至科罗拉多州科罗拉多斯普林斯市,借此享受该州商业友好环境、获取新兴科技人才并降低运营成本,同时保持为全美教育机构及劳动力组织提供服务的实力。 关于BoodleBox BoodleBox是高等教育领域领先的协作平台,助力终身学习与人工智能实践。通过BoodleBox,师生可高效备课、开展负责任的人工智能教学与学习、并有效评估作业。该平台采用符合《家庭教育权利和隐私法》(FERPA)的安全界面,以经济实惠的方式提供多款顶尖人工智能模型、定制机器人构建与作业工具、人工智能辅导服务,以及独特的数据可移植功能——使学习者毕业后仍能保留其学习成果。
    Claude
    2025年12月11日