AI速度被低估,2026前的关键动作|Anthropic联合创始人

B站影视 韩国电影 2025-09-04 12:30 2

摘要:2022 年,Forecasting Research Institute 邀请一群世界顶尖的超级预测者和 AI 专家,来评估这样一个问题:

2022 年,Forecasting Research Institute 邀请一群世界顶尖的超级预测者和 AI 专家,来评估这样一个问题:

到 2025 年,AI 获得国际数学奥林匹克(IMO)金牌的可能性有多大?

(图片:2022年专家预测AI获得IMO金牌的时间分布)

他们给出的答案非常谨慎:

超级预测者:2.3%

领域专家:8.6%

然而,现实结果颠覆了他们的预期。

2025 年 7 月,OpenAI 和 Google DeepMind 大语言模型双双拿下了 IMO 金牌。

同时,根据麦肯锡 2017 年的专家调查报告,他们还预测:AI 要到 2037 年,才能达到"人类中位数的创造力水平"。但 Clark 说,早在 2023 年,这条线就已经被悄然跨越了。

(Jack Clark 认为强大 AI 系统可能在 2026 年完成构建,2027 年开始规模化运行。)

在 9 月 1 日的一场深度访谈中,Anthropic 联合创始人 Jack Clark 进一步警告:

我认为,2026 年最早可能出现强 AI(AGI)。

而我们最该担心的,不是 AI 太强,而是我们对它关注得太少。

如果说过去我们把 AI 看作是一个逐步进化的工具,

今天的现实则是:

AI 发展已经明显加速,而我们的制度和认知,依然停留在昨天。

AI 已经跳出了传统技术渐进发展的模式,在短时间内达到了我们原本认为还需要多年的能力水平。

Jack Clark 用了一个真实的例子:

“五年前,大语言模型的科学能力顶多是做三位数乘法。现在,我们已经在用它解决凝聚态物理的问题。”

例子背后暗示的,是一个被严重低估的变化:

AI 正以过去几十年从未出现过的速度和规模渗透到社会各个层面。

Clark 在访谈中强调:

它比正常技术发展更快,在全球普及上也同样如此。

这是什么意思?

如果是蒸汽机、电力、互联网,每一次技术变革都需要花上十年时间建基础设施、铺设网络、让人们学习怎么用。

但 AI 不一样。

它本身就易于推广应用:一旦能力上线,立刻能通过 API、云端服务、大模型调用接口,接入到金融、科研、办公、客服、教学等几乎所有流程中。

就像 Clark 回答的:

“不是人们建好系统再去调用,而是系统直接接入你的日常工具。它不需要像飞机、汽车那样花几十年修跑道或公路,它的调用是即时的。”

这也是为什么,他对当前的主流判断持否定态度:

“你看飞机发展,很快到一定点就慢了;汽车、船也是。 可在 AI 上,我们看到的是:S型曲线还在加速往上,根本没有平缓的迹象。”

这不是我们熟悉的渐进式升级。 而是一种颠覆预期的飞跃。

一旦模型变好,它就不是下个季度试试看,而是明天全行业上线用起来。

这才是 Clark 真正想表达的悖论:

AI 本身的速度和它进入社会的速度,已经超出了我们为下一代技术预留的应变能力。

AI 正在快步前进,但我们用来应对它的反应速度,太慢了。甚至可以说,大部分社会机构,根本还没意识到该动起来。

Jack Clark 明确表示:

“AI 不会等我们准备好。我最害怕的事情,是我们没有给予它足够的关注。”

他说的“没关注”,不是媒体不报道,也不是政策文件没出台,而是我们的大多数制度、组织和治理方式,仍在沿用过去的逻辑。

他这样描述:

这些系统说到底就是计算机里运行的数学程序。

它们终将变得强大。

无论我们准备好与否,它们都会到来。

更深层的问题是,Clark 担心不只是监管慢一步、立法晚半年, 而是社会的主要决策机制,甚至连该往哪个方向出手都没搞清楚。

他指出三个严重滞后的维度:

① 认知滞后

大众仍把 AI 当成“聊天机器人”或“图片生成器”,无法理解其已具备通用性、科学性和深度协作能力

更大的问题是,社会对 AI 能力的判断标准还很模糊。今天的 AI 没有真正的感知能力,但它们的表现可能足以让人产生错觉。

但社会没有准备好:一旦它像人,就有人信了。

② 制度滞后

公司在推进,模型在更新,API 在落地,而政府、监管和法律制度仍然在试图理解 “AI 世界发生了什么”。

这种不对称本身就是问题:仅仅依靠企业来主导技术发展方向,注定会失败。

③ 治理窗口正在缩小

他提醒:过去我们有几十年去适应一项技术(比如工业革命、电气化、互联网)

但这次的变化只会发生在一代人的时间里。

这更像是一次“压缩式革命”,用 10 年甚至 5 年走完原本需要 50 年的路。

在这样的背景下,Clark 抛出一个更尖锐的问题:

“如果强 AI 最早在 2026 年到来,而我们现在还在犹豫怎么监管,那到时候还来得及吗?”

他不想把 AI 描绘成“世界末日”。

但他清楚地看到,如果治理机制不加速,风险只会累积。

AI 到底该由谁来决定?谁来定义它的边界、用途、责任感和安全性?

很多人默认,这还是企业的事。 模型是他们训练的,工具是他们造的,平台是他们的,出了问题,也该他们来负责。

Clark 反对这种思路。

在他看来, 这不是发布一个产品,而是在塑造人类未来的基础设施。

他提到,今天很多公司仍然以技术发布的思维在推进模型:

上线一个新版本

看看市场反应

修修Bug

再迭代

但问题是:

“这项技术不是浏览器更新,不是一次界面优化。它正开始进入人类的法律、经济、教育系统,并产生结构性影响。”

Clark 用社交平台当例子。

早年,Facebook、Twitter 也曾主动开放平台数据,允许第三方研究。但几年后,它们开始收紧权限、关闭接口、拒绝透明。

他说:

“我们看到了结果:平台控制了影响,但拒绝承担责任。如果 AI 走上同样的路径,后果只会更糟。”

因此,仅仅依靠企业自主监管已经不够了。

必须建立正式的公共治理机制,提前介入。而不是等到出问题了,再补救。

Clark 特别提到一个具体案例:

“英国用了不到三年时间,建立了一个新的政府机构:AI 安全研究所。它从零开始,组建了上百名技术人员,专门测试 Anthropic 等公司的前沿模型。”

这个机构做了什么?

拿到公司的最强模型

独立测试它的能力边界、安全反应、失败模式

还做了一项突破性研究:如何改变模型训练方式,让它更难被用于生物武器等高危用途

他其实已经看到了可能的治理雏形。不是没有办法,只是很多国家还没开始。

他说,在美国,他们也在推动类似机构,帮助政府具备技术理解能力。 但到目前为止,政府对 AI 公司的了解,仍远不如公司对自己的了解多。

这是一种信息不对称,也是一种风险加倍。

很多人觉得,AI 再强也只是工具,没必要赋予它什么价值观;

也有一部分人开始担心,一旦 AI 有了想法,我们该怎么让它站在我们这边。

这个问题不能等到 AI 变聪明了才来考虑。

他的想法是:

“我们不能等到这些系统表现出意识才去说服它们。我们必须在构建时,就让它们关心我们。”

这不是哲学问题,而是工程问题。 是现在就要在训练阶段解决的现实课题。

主持人在访谈里问了一个直觉性的问题:如果 AI 有了自己想法,不听人类的话了,那它是不是就有感知能力了?

Clark 的回应非常冷静,也非常具体:

“如果你用‘不听话’来定义感知能力,那电网是不是也有意识?它也会出错、会宕机,会做我们不想它做的事。但我们都知道,那只是复杂系统的结果,不代表它有自我意识。”

所以重点不在于它像不像人,而是我们是否让它学会了和人类一起生活的基本规则。

Clark 的观点很明确:

“必须在训练过程中,让 AI 理解并吸收人类的核心价值。就像我们教育孩子,不是等他成年后再教他不要伤害别人。”

这就引出了 Anthropic 非常关键的一项工作:价值观训练。

Clark 透露,他们正专门测量以下问题:

这些系统是否诚实?

它们会不会有欺骗行为?

在没有提示时,它们默认的选择是否符合“对人类有益”?

一旦能力提升,它们的行为倾向会不会发生根本改变?

这不是劝 AI 做好事,也不是给它讲道理,而是在建模阶段就把这些倾向训练进它的反应方式里。

这种设计方法背后,其实有一个非常现实的判断:

如果 AI 未来会越来越强,就必须让它从一开始就明白自己存在于一个有规则、有他人的社会中,而不是孤立运行。

AI 在让某些工作岗位不再需要人力。

Jack Clark 指出:

“我们看到 AI 的部署,出现得比人们预期的更快,改变职业的速度也更快。如果技术继续变好,我们需要为经济史上几乎没有先例的事做好准备。”

他所说的“没有先例”,指的是传统经济模型根本没考虑过这么强、普及这么快的技术。

比如,以前我们相信一句经典结论:

新技术会淘汰一些岗位,但也会创造新岗位,最终平衡。

但是 Clark 不再认同这个逻辑。在他看来,这次的情况根本不同,冲击主要体现在两个层面:

① 标准化工作的直接替代

过去,文书、客服、数据处理这些入门级岗位是职场的"起点"。每一代人都通过这些工作逐步积累经验。

但今天的 AI,最擅长的,恰恰就是这些标准化的文字和数据处理工作。

它能写总结、生成表格、调接口、做分析,还不会疲惫或离职。

Anthropic 的 CEO 很早就已经公开警告,AI可能会消灭一半的白领入门岗位。

这不是未来的预测,而是正在发生的现实。。

②专业领域的深度渗透

另一个更深层的变化:AI 正在进入需要专业知识的重复性工作领域。

“像癌症研究、材料科学这种领域,一线科学家很少,有的是繁重的重复工作。AI 可以像同事一样住在电脑里,帮他们做科学研究。”

这听起来是赋能。

但当 AI 能够读文献、生成假设、设计实验、分析数据……

那些原本做这些工作的实验室助理、初级研究员又该去哪?

真正的改变是:AI 已经在取代人力,而不仅仅是辅助人类工作。

✅ 所以,新机会在哪?

当然, Clark 没有完全悲观。他说:

“无论技术多强,人终究是需要陪伴的。我们仍然会愿意花时间去教育、照顾、交流,而不是只面对冰冷的机器。”

他举出几个方向:

教育工作(尤其是面对面教学)

护理岗位(儿童/老人)

心理辅导、康复陪伴、人际沟通等不可量化的职业

但要让这些基础岗位发挥应有作用,我们需要在政策上做出重大调整。否则它们会继续陷在待遇微薄、人手紧缺的困境中。

在这里,Clark 传达的不是情绪,而是现实:

AI 正在替代的,不只是单个工作岗位,更是整条职业发展路径。

Jack Clark 最想说的,不是技术太快。 是社会缺乏参与,让这场变革悄无声息地发生。

它不会等我们准备好,

不会等立法流程走完,

更不会在上线前先征求共识。

所以,治理不能再是技术开发完成后的补充措施,而必须与技术进步同步进行。

我们已经不是在讨论未来,而是试图对已经发生的现实做出回应。

这不是 AI 第一次超出预期,也不会是最后一次。

关键在于,我们必须在 AI 全面重塑社会各个领域之前,建立有效的治理框架。

要不要停下技术,是伪命题;

要不要启动制度,才是真问题。

来源:趣闻捕手一点号

相关推荐