摘要:这话是英伟达创办人之一、CEO黄仁勋说的。上周他在接受Citadel Securities访谈时,把这个想法讲得很直白:他估计,随着各种“数字护士”“数字会计”“数字律师”“数字市场人”出现,代理式人工智能组成的劳动力市场,可能价值数万亿美元。说白了,不只是把
未来的公司里,会有“数字员工”被正式招进来
这话是英伟达创办人之一、CEO黄仁勋说的。上周他在接受Citadel Securities访谈时,把这个想法讲得很直白:他估计,随着各种“数字护士”“数字会计”“数字律师”“数字市场人”出现,代理式人工智能组成的劳动力市场,可能价值数万亿美元。说白了,不只是把AI当工具用,而是当成员工来雇,按岗位、按职责来安排工作。
把这事想清楚一点:企业现在有的工作,不是全都适合让机器人接手,但有很多重复、规则化、数据密集的活儿,AI干起来比人快还稳。黄仁勋说,有的公司会把某些任务授权给这些智能体,有的会直接把它们当岗位来管理。未来的班组里,人和“数字人”并肩干活,这对公司组织形态来说,更像是一次进化,不是魔术。
他还点了几个可能会承载这些智能体的平台名:OpenAI、Harvey、OpenEvidence、Cursor、Replit、Lovable之类。同时他说,不少公司会自己造专属智能体,目的主要是保护自家数据和专有知识。英伟达自己就有内部智能体在用,尤其在网络安全领域,黄仁勋透露,公司里用于网络安全的智能体数量,已经超过执行同类工作的真人员工。这句话听着不吓人一跳都难——企业在用AI守后台了。
管理层面也不是随便放开就行的事。黄仁勋把话拉回企业内控,说入职一个新人,总要交代公司文化、工作方法,这套流程对“数字员工”一样适用。打个比方:我们现在给新员工开培训课、发手册,让他们知道规章制度、谁当谁的上级、出现问题怎么上报。给数字员工也得做类似的事,只不过换成是API权限、数据访问范围、输出风格、合规检查和故障处理流程。他甚至对CIO说,未来IT部门会变成负责这些代理式智能体的人力资源部门,承担数字员工的管理工作,像发放权限、做稽核、安排绩效考核这类事都会落到IT或专门的小组头上。
别以为只有英伟达这么说,科技圈里不少高管持类似看法。Salesforce的CEO马克·贝尼奥夫在达沃斯就表示,他觉得自己和很多同行将是最后一批只管理纯人类团队的高管。Anthropic的CEO达里奥·阿莫迪也提出,到2026或2027年,AI系统在几乎所有领域里,会超越大多数人类的能力——同时他警告,AI可能会让大约一半的初级白领岗位消失。这两句话听上去刺激,但也给人头疼:岗位怎么分配、谁负责出错、法律责任怎么定,得提早想。
企业不是光说不做。毕马威在6月的一份季度调查里发现,企业部署智能体的速度从去年第四季度起已经翻了两倍。参与调查的企业高层中,有82%认为智能体在一年内会变成有用的助力,同样比例的人认为两年内会彻底改变商业格局。还有87%的人觉得,智能体的加入会迫使企业重新定义绩效标准,并推动那些可能被替代的岗位员工去提升技能。毕马威生态系统负责人托德·洛尔说得直白些:这不只是把技术接进来,而是商业模式和工作方式都得重塑,得重新想清楚“工作怎么做”“怎么衡量”。
从大范围往小处看,影响可以细分成好几个层面。第一,招聘和入职流程会变。HR会出现新的岗位说明:需要知道怎么配置智能体、怎么写prompt、怎么做权限控制。比如一个客服团队里,可能会同时出现真人客服和两个不同能力的数字客服:一个负责常见问题自动应答,另一个负责把复杂问题整理成结构化数据供人类处理。新人入职,不仅学公司文化,也得学会用、监控和修正这些智能体。第二,绩效评估要重写。过去按人头、按电话量、按销售额算成绩,未来可能要把人与智能体的协同产出一起算,谁负责审核、谁来背锅,都得写进流程。第三,合规与隐私成核心。数字员工靠数据决策,一旦用错了数据或把敏感信息外泄,后果严重。于是很多公司选择自己内部开发智能体,好把数据留在自家围墙里。
再往细节看,培训“数字员工”并不是像装个插件那么简单。需要设计可控的学习路径、设定道德和法律边界、建立快速回滚机制。打个比方:给数字护士下达“诊断建议”的权限前,需要先定义它能访问哪些病历、能给出什么级别的建议、什么时候必须把病例交给人类医生。这套规则要写清楚,出问题的时候才能查得回来。有人要做日志审计、有人要审查模型输出、有人要维护模型更新。实际上,这些岗位可能比现在的技术岗更靠近HR和合规岗。
对普通职场人来说,眼下最现实的影响是门槛上了。校园毕业生找第一份工作,已经感到比以前难了:企业在找人时,会倾向于选择会和智能体协作、懂得用数据的人。那些只会重复操作的岗位,可能被智能体先拿下。与此同时,也会出现新的工作机会,比如做数字员工训练师、负责模型监控的运营岗、把法律规则写成模型可读格式的合规工程师。这些岗位虽然新,但对技能的要求更偏向跨学科。
法律和责任这块也在成长中。现在有些问题还没定调:当智能体犯错了,是软件开发者负责,还是使用者负责,还是企业作为雇主承担责任?各国监管进程不同,企业在全球部署智能体的时候,会遇到不同的合规门槛。基于这个现实,不少公司选择把关键业务的智能体留在自家服务器上,避免把敏感数据传给第三方。
在组织内部,混搭团队的管理也要练一套新规则。谁来做“人机协作设计师”?谁负责写prompt模板?发生业务异常时,报警流程要先通知真人还是先关掉智能体?这些细节听起来像程序员的事,但最后会变成每个部门都要关心的管理题。比如在市场部门,一个智能体可以帮你写初稿,但谁把稿子放到官方渠道?这就牵扯到品牌管理、合规和审批流程,这些都要改。
用一句更接地气的话来说:企业正从“把工具放在桌上”转向“把工具当同事养”。养同事有成本:你得教它规矩、给它权限、追踪它的工作,还得为它的失误埋单。与此同时,它也能替你干掉那些重复的苦差事,让团队把精力放在更有创造性的工作上。
这事现在还是在试水和加速阶段。你会看到更多公司在招聘启事里写“熟悉AI工具优先”“能和AI协同工作”;也会看到高校开设相关课程,教学生怎么与智能体配合。对于普通人,选择不是单纯的“抵制”或者“全盘接受”,而是学会在哪些地方让AI去做、哪些地方必须人来把关,而且学会升级自己的技能,让自己在混合团队里有价值。你看着招聘市场、校园就业和公司内部的岗位设置慢慢变,那就是这场变化在一点点落地。
来源:历史小学生