摘要:2022 年,Forecasting Research Institute 邀请一群世界顶尖的超级预测者和 AI 专家,来评估这样一个问题:
2022 年,Forecasting Research Institute 邀请一群世界顶尖的超级预测者和 AI 专家,来评估这样一个问题:
到 2025 年,AI 获得国际数学奥林匹克(IMO)金牌的可能性有多大?
(图片:2022年专家预测AI获得IMO金牌的时间分布)
他们给出的答案非常谨慎:
超级预测者:2.3%
领域专家:8.6%
然而,现实结果颠覆了他们的预期。
2025 年 7 月,OpenAI 和 Google DeepMind 大语言模型双双拿下了 IMO 金牌。
同时,根据麦肯锡 2017 年的专家调查报告,他们还预测:AI 要到 2037 年,才能达到"人类中位数的创造力水平"。但 Clark 说,早在 2023 年,这条线就已经被悄然跨越了。
(Jack Clark 认为强大 AI 系统可能在 2026 年完成构建,2027 年开始规模化运行。)
在 9 月 1 日的一场深度访谈中,Anthropic 联合创始人 Jack Clark 进一步警告:
我认为,2026 年最早可能出现强 AI(AGI)。
而我们最该担心的,不是 AI 太强,而是我们对它关注得太少。
如果说过去我们把 AI 看作是一个逐步进化的工具,
今天的现实则是:
AI 发展已经明显加速,而我们的制度和认知,依然停留在昨天。
AI 已经跳出了传统技术渐进发展的模式,在短时间内达到了我们原本认为还需要多年的能力水平。
Jack Clark 用了一个真实的例子:
“五年前,大语言模型的科学能力顶多是做三位数乘法。现在,我们已经在用它解决凝聚态物理的问题。”
例子背后暗示的,是一个被严重低估的变化:
AI 正以过去几十年从未出现过的速度和规模渗透到社会各个层面。
Clark 在访谈中强调:
它比正常技术发展更快,在全球普及上也同样如此。
这是什么意思?
如果是蒸汽机、电力、互联网,每一次技术变革都需要花上十年时间建基础设施、铺设网络、让人们学习怎么用。
但 AI 不一样。
它本身就易于推广应用:一旦能力上线,立刻能通过 API、云端服务、大模型调用接口,接入到金融、科研、办公、客服、教学等几乎所有流程中。
就像 Clark 回答的:
“不是人们建好系统再去调用,而是系统直接接入你的日常工具。它不需要像飞机、汽车那样花几十年修跑道或公路,它的调用是即时的。”
这也是为什么,他对当前的主流判断持否定态度:
“你看飞机发展,很快到一定点就慢了;汽车、船也是。 可在 AI 上,我们看到的是:S型曲线还在加速往上,根本没有平缓的迹象。”
这不是我们熟悉的渐进式升级。 而是一种颠覆预期的飞跃。
一旦模型变好,它就不是下个季度试试看,而是明天全行业上线用起来。
这才是 Clark 真正想表达的悖论:
AI 本身的速度和它进入社会的速度,已经超出了我们为下一代技术预留的应变能力。
AI 正在快步前进,但我们用来应对它的反应速度,太慢了。甚至可以说,大部分社会机构,根本还没意识到该动起来。
Jack Clark 明确表示:
“AI 不会等我们准备好。我最害怕的事情,是我们没有给予它足够的关注。”
他说的“没关注”,不是媒体不报道,也不是政策文件没出台,而是我们的大多数制度、组织和治理方式,仍在沿用过去的逻辑。
他这样描述:
这些系统说到底就是计算机里运行的数学程序。
它们终将变得强大。
无论我们准备好与否,它们都会到来。
更深层的问题是,Clark 担心不只是监管慢一步、立法晚半年, 而是社会的主要决策机制,甚至连该往哪个方向出手都没搞清楚。
他指出三个严重滞后的维度:
① 认知滞后
大众仍把 AI 当成“聊天机器人”或“图片生成器”,无法理解其已具备通用性、科学性和深度协作能力
更大的问题是,社会对 AI 能力的判断标准还很模糊。今天的 AI 没有真正的感知能力,但它们的表现可能足以让人产生错觉。
但社会没有准备好:一旦它像人,就有人信了。
② 制度滞后
公司在推进,模型在更新,API 在落地,而政府、监管和法律制度仍然在试图理解 “AI 世界发生了什么”。
这种不对称本身就是问题:仅仅依靠企业来主导技术发展方向,注定会失败。
③ 治理窗口正在缩小
他提醒:过去我们有几十年去适应一项技术(比如工业革命、电气化、互联网)
但这次的变化只会发生在一代人的时间里。
这更像是一次“压缩式革命”,用 10 年甚至 5 年走完原本需要 50 年的路。
在这样的背景下,Clark 抛出一个更尖锐的问题:
“如果强 AI 最早在 2026 年到来,而我们现在还在犹豫怎么监管,那到时候还来得及吗?”
他不想把 AI 描绘成“世界末日”。
但他清楚地看到,如果治理机制不加速,风险只会累积。
AI 到底该由谁来决定?谁来定义它的边界、用途、责任感和安全性?
很多人默认,这还是企业的事。 模型是他们训练的,工具是他们造的,平台是他们的,出了问题,也该他们来负责。
Clark 反对这种思路。
在他看来, 这不是发布一个产品,而是在塑造人类未来的基础设施。
他提到,今天很多公司仍然以技术发布的思维在推进模型:
上线一个新版本
看看市场反应
修修Bug
再迭代
但问题是:
“这项技术不是浏览器更新,不是一次界面优化。它正开始进入人类的法律、经济、教育系统,并产生结构性影响。”
Clark 用社交平台当例子。
早年,Facebook、Twitter 也曾主动开放平台数据,允许第三方研究。但几年后,它们开始收紧权限、关闭接口、拒绝透明。
他说:
“我们看到了结果:平台控制了影响,但拒绝承担责任。如果 AI 走上同样的路径,后果只会更糟。”
因此,仅仅依靠企业自主监管已经不够了。
必须建立正式的公共治理机制,提前介入。而不是等到出问题了,再补救。
Clark 特别提到一个具体案例:
“英国用了不到三年时间,建立了一个新的政府机构:AI 安全研究所。它从零开始,组建了上百名技术人员,专门测试 Anthropic 等公司的前沿模型。”
这个机构做了什么?
拿到公司的最强模型
独立测试它的能力边界、安全反应、失败模式
还做了一项突破性研究:如何改变模型训练方式,让它更难被用于生物武器等高危用途
他其实已经看到了可能的治理雏形。不是没有办法,只是很多国家还没开始。
他说,在美国,他们也在推动类似机构,帮助政府具备技术理解能力。 但到目前为止,政府对 AI 公司的了解,仍远不如公司对自己的了解多。
这是一种信息不对称,也是一种风险加倍。
很多人觉得,AI 再强也只是工具,没必要赋予它什么价值观;
也有一部分人开始担心,一旦 AI 有了想法,我们该怎么让它站在我们这边。
这个问题不能等到 AI 变聪明了才来考虑。
他的想法是:
“我们不能等到这些系统表现出意识才去说服它们。我们必须在构建时,就让它们关心我们。”
这不是哲学问题,而是工程问题。 是现在就要在训练阶段解决的现实课题。
主持人在访谈里问了一个直觉性的问题:如果 AI 有了自己想法,不听人类的话了,那它是不是就有感知能力了?
Clark 的回应非常冷静,也非常具体:
“如果你用‘不听话’来定义感知能力,那电网是不是也有意识?它也会出错、会宕机,会做我们不想它做的事。但我们都知道,那只是复杂系统的结果,不代表它有自我意识。”
所以重点不在于它像不像人,而是我们是否让它学会了和人类一起生活的基本规则。
Clark 的观点很明确:
“必须在训练过程中,让 AI 理解并吸收人类的核心价值。就像我们教育孩子,不是等他成年后再教他不要伤害别人。”
这就引出了 Anthropic 非常关键的一项工作:价值观训练。
Clark 透露,他们正专门测量以下问题:
这些系统是否诚实?
它们会不会有欺骗行为?
在没有提示时,它们默认的选择是否符合“对人类有益”?
一旦能力提升,它们的行为倾向会不会发生根本改变?
这不是劝 AI 做好事,也不是给它讲道理,而是在建模阶段就把这些倾向训练进它的反应方式里。
这种设计方法背后,其实有一个非常现实的判断:
如果 AI 未来会越来越强,就必须让它从一开始就明白自己存在于一个有规则、有他人的社会中,而不是孤立运行。
AI 在让某些工作岗位不再需要人力。
Jack Clark 指出:
“我们看到 AI 的部署,出现得比人们预期的更快,改变职业的速度也更快。如果技术继续变好,我们需要为经济史上几乎没有先例的事做好准备。”
他所说的“没有先例”,指的是传统经济模型根本没考虑过这么强、普及这么快的技术。
比如,以前我们相信一句经典结论:
新技术会淘汰一些岗位,但也会创造新岗位,最终平衡。
但是 Clark 不再认同这个逻辑。在他看来,这次的情况根本不同,冲击主要体现在两个层面:
① 标准化工作的直接替代
过去,文书、客服、数据处理这些入门级岗位是职场的"起点"。每一代人都通过这些工作逐步积累经验。
但今天的 AI,最擅长的,恰恰就是这些标准化的文字和数据处理工作。
它能写总结、生成表格、调接口、做分析,还不会疲惫或离职。
Anthropic 的 CEO 很早就已经公开警告,AI可能会消灭一半的白领入门岗位。
这不是未来的预测,而是正在发生的现实。。
②专业领域的深度渗透
另一个更深层的变化:AI 正在进入需要专业知识的重复性工作领域。
“像癌症研究、材料科学这种领域,一线科学家很少,有的是繁重的重复工作。AI 可以像同事一样住在电脑里,帮他们做科学研究。”
这听起来是赋能。
但当 AI 能够读文献、生成假设、设计实验、分析数据……
那些原本做这些工作的实验室助理、初级研究员又该去哪?
真正的改变是:AI 已经在取代人力,而不仅仅是辅助人类工作。
✅ 所以,新机会在哪?
当然, Clark 没有完全悲观。他说:
“无论技术多强,人终究是需要陪伴的。我们仍然会愿意花时间去教育、照顾、交流,而不是只面对冰冷的机器。”
他举出几个方向:
教育工作(尤其是面对面教学)
护理岗位(儿童/老人)
心理辅导、康复陪伴、人际沟通等不可量化的职业
但要让这些基础岗位发挥应有作用,我们需要在政策上做出重大调整。否则它们会继续陷在待遇微薄、人手紧缺的困境中。
在这里,Clark 传达的不是情绪,而是现实:
AI 正在替代的,不只是单个工作岗位,更是整条职业发展路径。
Jack Clark 最想说的,不是技术太快。 是社会缺乏参与,让这场变革悄无声息地发生。
它不会等我们准备好,
不会等立法流程走完,
更不会在上线前先征求共识。
所以,治理不能再是技术开发完成后的补充措施,而必须与技术进步同步进行。
我们已经不是在讨论未来,而是试图对已经发生的现实做出回应。
这不是 AI 第一次超出预期,也不会是最后一次。
关键在于,我们必须在 AI 全面重塑社会各个领域之前,建立有效的治理框架。
要不要停下技术,是伪命题;
要不要启动制度,才是真问题。
来源:趣闻捕手一点号