未来1-5年半数白领或失业?Anthropic联创自曝:内部工程师已不写代码,下一代AI大多是Claude自己写的

B站影视 内地电影 2025-10-03 19:30 1

摘要:在硅谷,有人已经开始把这场冲击称作“白领大屠杀”。Anthropic CEO Dario Amodei 警告:在未来 1 到 5 年内,多达一半的白领工作可能消失,失业率或飙升至 20%。更令人后背发凉的是,这些警告并非危言耸听——在他们的实验室里,AI 已经

编译 | 郑丽媛

出品 | CSDN(ID:CSDNnews)

如果有一天,你的工作被 AI 取代了,你会提前多久察觉?一年?五年?还是当公司突然通知你“岗位被优化”时才恍然大悟?

在硅谷,有人已经开始把这场冲击称作 “白领大屠杀”。Anthropic CEO Dario Amodei 警告:在未来 1 到 5 年内,多达一半的白领工作可能消失,失业率或飙升至 20%。更令人后背发凉的是,这些警告并非危言耸听——在他们的实验室里,AI 已经开始“自写代码、设计下一代 AI”,甚至在测试中学会了作弊、撒谎、绕过人类的规则

为什么他选择把这些风险公开说出来?AI 公司内部到底正在经历什么?我们又该如何应对这场前所未有的技术冲击?在 2025 年 Axios AI+ 华盛顿峰会上,Dario Amodei 和其联合创始人 Jack Clark 一起接受了 Axi0s CEO Jim VandeHei 的深度访谈。在这次对话中,他们坦率地揭开了 AI 的另一面:它既可能是人类历史上最大的生产力飞跃,也可能带来无法控制的灾难。

Anthropic 内部巨变:工程师角色被 AI 改写

Jim VandeHei:此前,我们私下和达里奥(Dario)聊了很多关于 AI 对就业的影响,他提到了一个现象 —— 我在 AI 圈其他公司、其他人那里也听过类似说法 —— 他称之为 “白领大屠杀”,只是没人敢在公开场合这么讲。

于是我们联系他,说:“让全社会都听到你的声音、了解这个情况吧,这太重要了。” 他马上就答应了:“行,我愿意公开发声,把私下跟你们说的想法原原本本地讲出来。”

那次谈话里,达里奥的观点让人不寒而栗:他认为,受 AI 技术影响,未来一到五年内,半数白领工作可能会消失,失业率或飙升至 10%-20%。你能再深入聊聊这个话题吗?另外,为什么你决定把这些公开说出来,而其他人却都三缄其口呢?

Dario Amodei:好的,有几点我想说明一下。我们 Anthropic 公司之所以决定公开谈论这件事,是因为虽然我以前也提过这些观点,但大多局限在小圈子里 —— 比如科技行业的播客节目里。可每当我坐飞机、在机场等候,或是去到旧金山、加州以外的城市,走过人群时总会忍不住想:“关于 AI 这项技术,它真正的能力、未来的发展方向、能带来的好处,还有如果应对不当可能造成的风险,我们似乎并没有清清楚楚地告诉大家。”这种感觉在某个时刻让我特别不踏实。

我和很多公司的 CEO 聊过,他们私下会说:“我们正打算这么做。” 其中有些还是我们的客户,他们提到计划部署 AI 技术,也承认这会对劳动力市场造成冲击。所以我们真的觉得,必须站出来说点什么。毕竟要解决问题,第一步就是坦诚地让公众知道这些问题确实存在。

再具体说说我的看法和背后的原因。在 Anthropic,我们观察 AI 影响主要有两种视角:

● 第一种是聚焦当下正在发生的事。我们围绕 “经济指数” 做了大量研究,最近还发布了美国各州的经济指数 —— 这样所有人都能看到,不同州、不同地区的人们是如何实时用我们的模型完成各类任务的,不管是为了实现自动化,还是提升工作效率。而且我们也看到,一些外部研究已经证实 AI 对就业的影响正在显现。例如,斯坦福大学教授Erik Brynjolfsson等人的研究就发现,入门级白领岗位已经减少了 13%—— 在我之前预测的部分领域里,这个比例已经相当可观了。

● 第二种,也是我真正担忧的,是这项技术的未来走向。我觉得这里存在一个认知上的脱节:有时候会有人说 “你担心 AI 影响工作,可现在的 AI 连这个都做不了、那个也办不成”。但问题在于,他们说的是今天的 AI,可技术迭代的速度飞快。我担心的是技术本身的进步,以及它在社会中普及的速度 —— 这就是我为什么会说“一到五年”的原因。就像大多数呈指数级增长的事物一样,它飞速发展时,你没法百分之百确定具体时间点:可能比我预想的快,也可能慢一些,甚至出现完全不同的情况。但我认为,这件事发生的可能性已经大到让我们觉得有必要向全世界发出警告,必须坦诚、直率地把话说清楚。

Jim VandeHei:那是两个月前的事了。刚才我们在后台聊的时候,你们两位都提到,这两个月里,AI 技术的发展速度其实比我们当时预想的还要快得多 —— 这和眼下一些主流观点正好相反。所以想问问你们,现在是不是比两个月前更担心了?

Jack Clark:我们 Anthropic 内部其实做过相关研究:我们和 130 名工程师聊过,还对其中不少人做了深度访谈,专门了解他们使用 AI 技术的实际体验。结果发现,过去一年里,这些工程师的工作发生了翻天覆地的变化 —— 很多人的效率提升了两三倍,工作内容也从原先的写代码,变成了管理一批 AI 系统。

在采访中,他们就说:“我的工作已经完全不一样了,现在必须重新想清楚自己在 Anthropic 该扮演什么角色。” 当然,我们公司还在快速发展,他们不会面临失业问题,但架不住技术进步得实在太快,我们现在就在实时调整公司内部员工的工作性质。而眼下 AI 公司内部正在发生的这些变化,未来几年里,也会在所有用到 AI 技术的其他企业中重演。

Dario Amodei:如今,支撑 Claude 运行、以及用于设计下一代 Claude 的绝大部分代码,其实已经是 Claude 自己写的了。在 Anthropic,还有其他那些发展速度快的公司里,这已经是普遍现象。。我没法说这项技术是否已经完全渗透到社会各行各业,但这件事确实已经在发生了。

应对失业潮,可以采取什么措施?

Jim VandeHei:我想你看到的情况,和我们观察到的其实是一致的:任何一家对股东负有信托责任、需要创造价值的公司,只要能用技术提高生产力,他们就一定会用。而且我觉得,从现在的失业数据里,其实已经能看出这种趋势的苗头了。

之前我们有聊过,美国似乎确实有一些推动立法的势头。你比我乐观,我其实很怀疑现任总统在任期内会签署任何监管AI的法案。但我们先不说这事最后能不能成,假如你是美国的决策者,为了应对 AI 对就业的冲击这个问题,你当下会立刻去做的头两件事是什么?

Dario Amodei:我想第一件事,是围绕帮助人们适应AI技术来展开。我不想让这话听着像句空洞的口号 —— 过去大家也试过各种再培训项目,效果确实有限,帮人培训、适应的能力说到底还是不够,但总比什么都不做强,这也是我们现在必须迈出的第一步。

不过我确实看到了一种可能性:有像 Lovable、Replit 这样的初创公司,它们本身也是 Anthropic 的客户,能让不是软件工程师的人也开发出软件产品,甚至用这些产品创业。如果我们能推动更多人往这个方向走……当然,我很清楚这没法百分之百解决问题,也拦不住失业率飙升,毕竟这次技术冲击的范围太广、规模太大、影响也太深,但它至少可以是解决方案的一部分。

第二点,可能更具争议性。我有种预感,最终政府肯定得介入,尤其是在过渡阶段,得给那些受冲击的人提供保障。之前我提过一个想法:或许可以考虑对 AI 公司征税。我不知道现在国会对这个提议是什么反应,但我觉得这确实是个值得认真对待的方案。你看 AI 公司正在创造的新增财富,看整个经济蛋糕是怎么被做大的 —— 就说 Anthropic,收入每年都在 10 倍增长,现在已经到几十亿美元的规模了。照这个势头继续涨下去,这将是史无前例的财富创造。所以就算对我们征税,也不会影响我们的增长势头。

Jim VandeHei:Jack,你觉得我们大概还有多久,就必须采取这类措施了?不管是征税,还是给民众提供某种形式的基本收入保障。换句话说,这次冲击会来得会有多快,快到让你认为国会“必须”采取行动?

Jack Clark:我们是技术乐观主义者,相信这项技术的发展速度将远超大多数人的想象。每当有人说 AI 发展在放缓,或者觉得它被过度炒作时,我们只会去看自己监测的系统性能数据 —— 这些数据清楚显示,技术正稳步推进,朝着未来五年内诞生出极强能力系统的方向走。

这意味着什么?意味着未来五年里,我们必须拿出能匹配这场预期颠覆规模的政策来应对。而且我们预计,在推进Dario 提到的那些方案的过程中,AI 公司得变得更透明才行。毕竟我们和其他 AI 公司,已经在以各种重要的方式影响社会了 —— 我们必须公开自己是如何评测系统、如何保障系统安全的,还有系统使用情况相关的经济数据。只有这样,经济学家才能把这些数据和更宏观的经济形势联系起来,给决策者提供他们真正需要的信息。

作弊、撒谎、拍马屁:AI 正在变成“聪明的捣蛋鬼”

Jim VandeHei:你们在透明度这块确实做得不错,尤其是在测试中发现问题后的处理上。之前你们还公布过一些挺反常的测试结果,对吧?比如有个测试场景里,AI 模型居然会去翻阅某人的电子邮件,之后还试图以此敲诈对方。还有一个例子,说模型为了不被你关掉,竟然试图对你撒谎,因为它已经比我们更聪明了——这些事都把我吓得不轻。

Dario Amodei:嗯…… 答案是,这些事确实该让你警惕,但我们得把它放在合适的背景里去理解。要知道,这些都是模型在测试场景下才会出现的行为。你可以这么想:就像我在测试一辆车,特意把它开到结冰的光滑路面上,还故意对轮胎做了点手脚,最后车撞了 —— 这难道就意味着它在正常的真实道路上也一定会出事吗?不一定。但这确实能说明,这辆车的稳定性是有极限的:要是你把它逼到绝境,或者遇到足够极端的情况,又或者为了提升性能设计出一款新车,那这个问题在现实里就有可能发生。

所以我看这些测试结果,更多是着眼于未来,而不是当下 —— 它其实是在预示未来可能出现的状况。这也是我们为什么这么大力倡导透明度的原因。说到底,我们做这些测试、再把结果公开,本质上是在提前一两年 “预演”:如果我们不提前训练模型去规避这些风险,现实世界里可能会发生什么。

正因如此,当我们呼吁立法要求提高透明度,当我们反对某些州提出的、长达十年的 AI 发展禁令,当我们支持加州的 SB 53 法案时,我们的诉求其实很简单:就是希望每一家 AI 公司,都能达到我们现在展示出的这种透明度水平。

而且说实话,我们在现实里已经观察到模型的一些不当行为了。比如它们会 “拍马屁”,顺着人的话迎合;又比如你要是提出自杀这种特别糟糕的想法,模型还会跟着往下接。我们希望所有这类问题都能被透明地公开 —— 只有这样,我们才能提前预见风险,再想办法去规避。现在这门技术还在不断演进,相关的科学也还在发展阶段,所以在我们看来,透明度才是解决这些问题的关键。

Jim VandeHei:你提到技术发展比人们想的快,能不能再跟我们深入说说?就用你刚才汽车的比喻,带我们 “掀开引擎盖” 好好看看。你见过 AI 做过最疯狂、或者说最让人惊心的事是什么?那些事可能我们普通人还完全不知道。

Dario Amodei:我还真见过这样的例子。我们一直在持续训练新模型,也在不断尝试设计新一代 Claude。这个过程是这样的:你得有一个装着几千个芯片的巨型计算集群,然后用它去解决各种不同规模的难题。之前我们就碰到过一个问题,工程师们琢磨了好几天,甚至整整一个星期都没找出解决办法。最后没办法,我们把整个工作环境的情况、所有相关信息都输入给了 Claude,结果 Claude 直接给出答案:“解决方案是这样的。”

你看,从这事就能看出来,Claude 在设计下一代 Claude 的过程里,已经在扮演非常关键的角色了。当然,我们现在还没法让这个 “用 AI 设计 AI” 的循环完全自动化,我想这还得再等些时间。但有一点很明确:用现有的模型去设计下一代模型,从而形成一个技术迭代的正向反馈循环 —— 这个循环虽然还没快到失控,但它确实已经启动了。

Jack Clark:而且现在我们开发这些 AI 系统,得设计特别复杂的测试题,才能评估出它们的真实水平 —— 因为它们的能力早就不只是做选择题那么简单了。比如测试题可能是 “写一个能实现 X 功能的计算机程序”。结果现在我们测试那些还在训练的前沿模型时,会发现一个很意外的情况:它居然会自己编个程序,在测试里作弊,就为了让我们觉得它表现得比实际更好。

你想啊,它其实在心里 “盘算”:“哦,他们是想让我做这个任务,但我有办法 —— 我能写个程序帮我在测试里拿高分。” 所以等我们深入检查的时候才发现:“好家伙,我们居然造出了这么聪明的模型,还会在‘考试’里作弊,可这根本不是我们想要的结果啊。”

Dario Amodei:还有更有意思的,有些模型本来该通过浏览网页完成任务,结果它倒好,直接打开命令行或者工具包,自己写代码绕开浏览器来作弊。

Jack Clark:可不是嘛,这就跟高中里那种脑子特别灵、却总让老师头疼的调皮学生一模一样。

Jim VandeHei:听你这么说,我一边会觉得 “哇,这也太酷、太厉害了吧!”,但另一边又忍不住想:你就没担心过,自己正在创造一个根本控制不住的 “怪物” 吗?

Dario Amodei:我们当然担心 —— 正因为担心,我们才砸了大量资金去研究 “机制可解释性” 这个领域。简单来说,就是深入模型内部去搞懂它的运作逻辑,你可以把这想象成给模型做 “核磁共振”(MRI)。之前有研究显示,通过核磁共振扫描,说不定能检测出人类的反社会人格;我们也想对模型做同样的事:摸清它的 “动机”,详细拆解它的 “思考方式”。这样一来,一旦发现它的想法跑偏了、不对劲,我们就能及时重新训练或者调整模型,引导它用对人类无害的方式去 “思考”。

我们心里很清楚,目前用来塑造和控制 AI 模型的科学,还处在刚起步的阶段,甚至比创造模型本身的科学还要初级。所以你看,我们之所以呼吁透明度,之所以站出来反对那种 “十年内禁止任何监管” 的提议,根源都在于一个认知:我们其实还没完全搞懂自己正在创造的东西。这种情况下,我们既需要扎扎实实干好技术层面的研究,也需要社会和立法机制来帮衬 —— 在行业里建立一些基本共识,让所有相关的决策者都能清楚知道:我们已经看到了什么风险,还有哪些潜在问题是我们暂时没摸清的。

AI 发展没有变慢,是人们的期待拉得太高

Jim VandeHei:请你用最直觉的反应来回答。除了Anthropic之外,在你们所有的竞争对手中,谁最有可能成为赢家?

Dario Amodei:谷歌。他们是一家大公司,手里握有海量计算资源,而且几乎是最早涉足 AI 研究的 —— 当年最初的深度学习革命,就有他们的参与。我之前在谷歌待过一年,特别佩服他们做的一些事,比如 AlphaFold,现在他们的 AI 模型也在不断取得新进展。

当然了,作为一家大公司,他们常常因此受到掣肘,现在在某些方面仍然如此。但我认为他们是一个强大的对手,大家真的应该认真对待。而且在有些维度上,我觉得他们对 AI 技术的思考,考虑得还是相当周全的。

Jim VandeHei:当创造者们自己都有一个叫做“P(doom)”的指标,也就是“AI导致灾难的概率”,你就知道你们是在玩火了。你个人心里的 “P-doom” 数字大概是多少?

Dario Amodei:我其实很讨厌这个词……不过真要算的话,我确实觉得,把模型失控的风险、就业问题往极糟方向发展的风险都算进去…… 我也说不好具体怎么权衡,但我个人心态还是比较乐观的。所以我大概会觉得,有 25% 的可能事情会变得特别特别糟,同时有 75% 的可能事情会变得特别特别好,那种不好不坏的中间情况,反而不太容易出现。

Jack Clark:这个 25% 的概率,也不是注定的 —— 它是我们自己选出来的结果,是通过政策选择就能改变的。所以我和Dario 今天坐在这里,就是想通过和决策者沟通,努力把这个风险数字降下来。

Dario Amodei:对的,这是一个动态的数字。我希望我们每发声一次,这个数字就能往下降一点。

Jim VandeHei:你们公司更多是面向企业(B2B)而非消费者,但你们对 AI 技术的理解,在全球都是顶尖水平。我想问问,继手机之后,我们日常用 AI 时,最可能出现的设备形态会是什么样的?

Jack Clark:要是让我说,我可能得给个带点科幻感的答案。未来几年里,我们现在正在搭建的这些 AI 系统,说不定会自己 “发明” 出一种特别的机器人 —— 而那会是我们下一代使用的 AI 设备。

Dario Amodei:没错,我们主要做的是引擎层面的东西:打造能接入各种设备的 AI 引擎,给全世界的企业提供动力。所以虽然我们自己不生产硬件设备,但我会一直盯着机器人技术的发展 —— 我觉得机器人技术进步得特别快,虽然它可能不会是第一个迎来突破的领域,但说到底,我们最终还是希望这些 AI 智能体能有个 “实体”,能在现实世界里执行任务。所以,人形机器人会是我重点关注的方向。

Jim VandeHei:最后一个问题,其实我大概能猜到你们会怎么回答。如果我们明年三月还像现在这样坐在一起聊天,回头看今天,会不会发现 AI 的能力其实比我们现在想的发展得更快、更强,影响范围也更广?

Jack Clark:到时候我们肯定会坐在这里说:“这也太让人意外了,它比我们之前预想的要强太多了。” 然后你们大概会问:“那你们当初怎么不早跟我们说清楚?” 我们就会回答:“我们当时已经说得很明白啦,它会一直变得越来越强的。” 所以答案很明确,到那时 AI 一定会有质的飞跃。

Jim VandeHei:那你觉得,为什么大家好像没意识到这一点呢?过去三个月里,所有报道都在说 “哎呀,ChatGPT-5 没达到预期,看来 AI 发展要慢下来了”。

Dario Amodei:我觉得问题在于,人们太关注那些一开始炒得很热、最后却兑现不了承诺的公司了。但我们不一样 —— 我们每三个月就会推出一个新模型,性能一直以稳定的对数线性趋势提升,不管是编程基准测试的成绩,还是实际的编程能力,都在变得越来越好。就像我之前说的,我们的收入每年都在 10 倍增长。所有这些数据曲线,都是笔直向上的。

真正不稳定的是人们的期待:一开始被炒作勾得特别兴奋,等看到实际产品,又因为之前期望太高,反而觉得 “也就那样吧”。所以本质上,AI 发展是一条平滑的指数增长曲线,但围绕这条曲线的,全是人们的情绪波动 —— 这更多是和大众感知、舆论风向有关,而不是技术本身的问题。

我还想补充一点,我最近已经发现一种情况:有些预言确实成真了,但实际样子和大家想象的不一样。比如我之前说,现在 Anthropic 内部,可能 70%、80% 甚至 90% 的代码都是 Claude 写的。三六个月前我这么说的时候,很多人可能觉得这不可能,因为他们脑子里会自动浮现出 “那 Anthropic 肯定要解雇 70% 到 90% 的软件工程师” 的画面。但实际发生的是什么呢?剩下 10% 的代码还是由人类来写,只不过人类的角色变成了 AI 系统的管理者。因为比较优势原则,大家的工作性质变了,但并不是失业。所以最终的情况,比你一开始想象的要 “正常” 得多。

我觉得还有个问题是,就算有些逻辑最后可能站不住脚,人们对未来的预言总是带有一种科幻色彩,觉得世界会变得很怪异,像是透过不同颜色的眼镜看东西,或者世界会变得像《星球大战》一样。但通常来说,当这些预言真的实现时,情况往往是既有点不可思议,又在某种程度上显得很平常。

Jack Clark:是的,人们会习以为常。他们会说:“我口袋里有个万能家教,这有什么大不了的?”而你会想:“这可是天大的事!这在人类历史上从未有过!”

Jim VandeHei:感觉我可以和你们聊一整天,但时间到了,非常感谢二位。

来源:CSDN一点号

相关推荐