5000亿美元打水漂?AI教父突改口:大模型是假智能,巨头们慌不?

B站影视 韩国电影 2025-09-30 18:02 1

摘要:更有意思的是,长期唱反调的加里·马库斯立刻跳出来说:"看吧,我2019年就说过了。"

人工智能这两年一直在狂奔,各家公司拼命砸钱造更大的模型,

但上周,图灵奖得主理查德·萨顿在播客节目里表态,

光靠扩大语言模型的规模,根本到不了真正的通用智能。

要知道,他可是那个提出"苦涩教训"的人,

就是那个一直在说"算力堆大点比什么都管用"的学者。

现在连他都改口了,这事儿就有意思了。

更有意思的是,长期唱反调的加里·马库斯立刻跳出来说:"看吧,我2019年就说过了。"

两个人在社交平台上的互动,让整个AI圈子炸开了锅。

就在几天前的9月26日,在采访中,萨顿明确指出大语言模型的致命问题,

它们没法在工作中学习,也没法从现实世界获得反馈,

用他的话说,这些模型就像是关在屋子里背书的学生,永远不知道外面的世界发生了什么。

可萨顿在2019年写过一篇著名文章《苦涩教训》,里面的核心意思就是,

别搞那些复杂的算法设计,直接堆计算资源才是王道。

当时这篇文章影响力巨大,被很多公司当成圣经,

OpenAI、谷歌这些巨头后来的做法,基本上就是按照这个思路走的,

GPT-3用1750亿参数,GPT-4据说上万亿,一个比一个大。

可现在萨顿自己转向了,他在采访里说得很直白,语言模型只是在模仿人类说话,这不是真正的智能。

真正的智能系统需要能够持续学习,需要新的模型架构,

按他的设想,未来的AI应该不需要专门的训练阶段,直接在实际使用中边干边学。

马库斯看到这个消息后,第一时间在自己的博客上发文,他列举了一堆行业大佬转变立场的例子,

说萨顿只是最新的一个,Meta的首席科学家扬·勒昆,

谷歌DeepMind的老大德米斯·哈萨比斯,这些人现在的立场都跟几年前不一样了。

马库斯的文章标题就很直接:"纯粹依靠大语言模型已经完蛋了,连图灵奖得主都下车了。"

两个人在社交平台上的互动更有意思,

萨顿主动回复马库斯,说他"从来不孤单",还夸他当初敢于质疑的勇气。

这场公开的相互认可,在学术圈引起不小震动。

马库斯这些年一直在挑大模型的毛病,很多人觉得他就是个唱反调的。

现在有萨顿这样的重量级人物站台,情况就不一样了。

说到这里得提一个关键背景,

今年3月,萨顿和他的合作者安德鲁·巴托刚刚获得了2025年的图灵奖,

获奖原因是在强化学习领域的开创性工作。

强化学习跟语言模型完全是两个路子,语言模型是给它海量文本,让它学会预测下一个词。

强化学习是让AI在环境里试错,通过反馈学会做决策,

比如AlphaGo下围棋,就是典型的强化学习应用。

萨顿在3月份接受采访时说,他认为在2030年之前实现类似AGI的概率是四分之一,

到2040年是五成,他强调的路径不是扩大语言模型,而是让AI能够真正与环境互动。

在6月份的另一场演讲中,他把未来称为"经验时代",认为当前的语言模型只是世界暂时的迷恋对象。

这场争论背后,是几千亿美元的真金白银,

今年上半年,OpenAI完成了400亿美元的融资,公司估值达到3000亿美元。

这些钱主要投向哪里?GPU和数据中心,今年1月,OpenAI联合软银、甲骨文推出星门项目,

计划四年内在美国投资5000亿美元建设算力基础设施,这个数字听着都吓人。

问题来了,今年2月的报道显示,OpenAI推出GPT-5遇到了麻烦,原本的策略似乎不管用了。

原因很简单,模型越做越大,改进却越来越小,

训练成本呈指数增长,性能提升却在递减,这就是所谓的"收益递减"问题。

最新消息显示,OpenAI预计到2030年之前要烧掉1150亿美元,

仅员工股权激励就比原计划多出200亿美元。

OpenAI自己也在调整策略,就在9月25日,公司发布了一套新测试标准,

用来评估GPT-5在实际工作中的表现。

注意这个变化:以前他们强调模型有多大,现在开始强调能干什么活。

这本身就说明单纯靠扩大规模可能真的遇到瓶颈了。

马库斯在8月份的文章里提到一个数据:他从2019年就开始警告大语言模型的局限性,

从2023年开始警告可能存在泡沫和经济问题。

现在回头看,他的很多预测都在应验,行业里开始有人担心,如果技术路线真的走错了,

这些巨额投资会不会打水漂?

学术圈现在分成了明显的两派,

一派认为继续扩大模型规模,加上一些改进,最终能达到通用智能。

OpenAI的前首席科学家伊利亚·苏茨克维尔就持这个观点。

他举过一个例子:当语言模型能完成"凶手是..."这样的句子时,它必须理解整个故事,发现线索,进行推理。

这本身就是智能的体现。

另一派以萨顿和马库斯为代表,认为语言模型有根本性的架构缺陷,

他们强调,真正的智能需要目标导向,需要与环境互动,需要能够持续学习。

光靠预测下一个词,无论模型多大,都达不到这个要求。

两派争论的焦点,其实是对智能本质的不同理解。

语言模型派相信智能可以从大规模模式识别中"涌现"出来,

强化学习派则认为智能必须来自与环境的交互和目标驱动的行为。

这不只是技术问题,更是哲学问题。

现实情况可能介于两者之间,

一些研究团队在尝试把语言模型的理解能力和强化学习的决策能力结合起来,

这种混合方法可能提供一条折中道路,还有人在重新研究神经符号AI,

试图把符号推理和神经网络结合,让系统既能学习又能推理。

值得注意的是,萨顿在2023年宣布跟约翰·卡马克合作开发AGI,

卡马克是游戏引擎大师,现在全身心投入AI研究,

他们的方向很明确:不走语言模型这条路,而是专注于能够在环境中学习的智能体,

这个项目进展如何,可能会在未来一两年内给出一些答案。

来源:靳律法谈

相关推荐