AI界的“华山论剑”:关于AI泡沫与未来

B站影视 电影资讯 2025-11-13 09:46 1

摘要:在伦敦举办的《金融时报》未来人工智能峰会上,黄仁勋、杰弗里・辛顿、李飞飞等六位 AI 巨擘罕见同框,围绕 “AI 是否有泡沫”“何时达到人类智能水平”“现有技术路径能走多远” 等核心问题展开激辩。这场对话浓缩了半部 AI 发展史,既有对四十年技术坚守的回望,也

在伦敦举办的《金融时报》未来人工智能峰会上,黄仁勋、杰弗里・辛顿、李飞飞等六位 AI 巨擘罕见同框,围绕 “AI 是否有泡沫”“何时达到人类智能水平”“现有技术路径能走多远” 等核心问题展开激辩。这场对话浓缩了半部 AI 发展史,既有对四十年技术坚守的回望,也有对未来趋势的多元预判。这篇文章带你直击对话核心,拆解大佬们的分歧与共识,看懂 AI 泡沫背后的真实价值与技术演进的关键方向!

AI教父教母巅峰对话,揭示技术浪潮下的共识与分歧。

说实话,当我看到YouTube上这场对话的嘉宾阵容,我第一反应就是:这简直是金庸笔下的名场面。要知道,金庸在《射雕英雄传》《神雕侠侣》里反复描绘过这样的经典画面,那就是东邪、西毒、南帝、北丐、中神通五大高手齐聚华山之巅,酣畅论剑。

11月6日,在伦敦举办的《金融时报》未来人工智能峰会上,六位对AI影响深远的思想家坐在了一起:黄仁勋、杰弗里·辛顿、约书亚·本吉奥、杨立昆、李飞飞、比尔·达利。说实话,能邀请到这里面任何一位都不容易。

你可能对前面五位已经比较熟悉了,但对第六位专家比尔·达利可能没那么了解。他是英伟达首席科学家兼高级研发副总裁,管理着英伟达顶尖的由400多位研究科学家组成的团队。

英伟达GPU为什么具备强劲竞争力,与他所带领团队的研发实力密不可分。在2009年加入英伟达前,比尔·达利曾担任斯坦福大学计算机科学系主任。如果你去看关于英伟达或黄仁勋的传记,会发现把比尔·达利招致麾下,一定是其中的“神来之笔”。

此外,这六个人里有三位图灵奖得主,分别是辛顿、本吉奥、杨立昆;一位诺贝尔奖得主,辛顿。

是什么让这六位顶尖人物齐聚一堂?

答案是“伊丽莎白女王工程奖”——这个被誉为“工程界诺贝尔奖”的奖项,2025年将荣誉颁给了七位在现代机器学习领域做出奠基性贡献的科学家。

这个奖项由英国政府于2011年设立,初衷是打造一个能与诺贝尔奖比肩的顶级工程类奖项。和诺贝尔奖的黑盒评选机制不同,它面向全球开放提名,由国际顶尖工程师与科学家组成的评审团负责筛选。

所以趁这个难得的机会,除了未到场的91岁高龄的霍普菲尔德教授,其他六位获奖者全部出席了《金融时报》的这场对话。这就是为什么有网友留言问“为什么马斯克和奥特曼没有参加”,会有其他网友直言“他俩在AI的基础研究上并无实质贡献。”

这场对话由《金融时报》AI编辑玛杜米塔・穆尔吉亚主持,她在开场时说:“能邀请到各位共聚一堂,既难得又令人振奋。”

这话一点也不夸张,这六人的同框,几乎就是一部浓缩的AI发展史:

辛顿1986年推广的反向传播算法,是训练神经网络的基础;李飞飞创建的ImageNet数据集,成为深度学习爆发的关键基础设施;2012年辛顿团队用黄仁勋的GPU训练出AlexNet,在ImageNet挑战赛中获胜,标志着深度学习时代的真正到来。

六位AI领域的顶尖人物坐在一起,会聊什么?

说实话,看完整场完整对话后,我最大的感受是:这六位顶级专家,在几个核心问题上展现出了截然不同的观点——AI到底有没有泡沫?何时能达到人类智能水平?现有技术路径能走多远?

而这些分歧,恰恰是这场对话最有价值的地方。接下来,我想和你分享这场对话里,我记下的四条笔记。

第一条笔记,辛顿在1984年发现了“微型GPT”,然后等了40年。

当主持人请辛顿分享职业生涯中的关键时刻时,这位76岁的“AI教父”讲了一个让我印象深刻的故事。1984年末,辛顿尝试用反向传播算法,让模型学习预测文本序列中的下一个词语。

他说:“这可以说是一个微型语言模型的雏形,令人惊奇的是,仅仅通过预测符号序列中的下一个词,这个模型就自发学会了提取词语语义的特征表示。”

你不用纠结里面的专业词汇,想必你已经发现:这不就是今天ChatGPT的核心原理吗? 通过预测下一个词,让模型自主掌握语言规律。

辛顿自己也坦言:“这个1984年末诞生的微型语言模型,在我看来正是当今大语言模型的前身。基本原理完全一致,只是规模极小——我们当时仅用了100个训练样本。”

他接下来的话更关键:“然而为实现今日的成就,我们整整走了四十年。这四十年间,我们既缺乏足够的算力支撑,也没有海量数据资源,当时甚至未能意识到这些局限。那时我们始终困惑:为何反向传播算法不能解决所有问题?”

四十年。一个正确的想法,只因缺少算力和数据,整整等待了四十年。

这让我想起黄仁勋在后面对话中提到的转折点:2010年前后,他几乎同时收到来自多伦多大学、纽约大学和斯坦福大学三个实验室的合作请求。

黄仁勋在对话中提到:“我敏锐地意识到,这种基于高层级表征构建深度学习网络的软件开发模式,与芯片设计领域的方法论存在惊人的相似性。”

然后,2012年,辛顿的学生用黄仁勋团队的GPU训练出AlexNet,在ImageNet挑战赛上一举获胜。那时,辛顿等了28年的算力支撑,终于来了,模型训练量级也得以突破。而从2012年到2022年ChatGPT问世,又是整整10年。两者加起来,正好40年。

其实,技术的发展从来不是线性的。有些想法在提出时就是对的,但它需要等待其他条件成熟。

辛顿1984年就知道预测下一个词能让模型学会语言,但他不知道需要多少算力、多少数据,才能让这个想法真正发挥作用。这四十年里,他一直在坚持,也一直在等待。

第二条笔记是关于数据。如果说辛顿苦等数十年,终于盼来了算力的突破,那李飞飞解决的就是数据缺失的问题。

2006至2007年,李飞飞刚完成从研究生到助理教授的身份转变。她在对话中提到:“我们尝试了当时所有主流算法,从贝叶斯、支持向量机到神经网络,最终我与学生意识到核心问题就出在数据匮乏上。”

她做出了一个在当时看来近乎疯狂的决定:耗时三年构建了一个超大数据集ImageNet,汇集全球志愿者手工标注的1500万张图像,涵盖2.2万个类别。

说实话,换成我是李飞飞的同事,我也会觉得她疯了。花三年时间就在标注图片?这在学术界简直是自杀式的选择。

你想想,大多数教授都要想办法快速发论文、拿终身教职,而李飞飞却选择了一条最笨、最耗时、最不确定的路——三年时间,可能一篇顶会论文都发不出来,职业生涯可能就毁了,学术界也不会有人觉得标注海量的图片是科学家应该做的事情。

但她坚信一件事:“回想生物智能的演进,人类在发育早期就接收海量数据刺激,而当时的机器却处于‘数据饥荒’状态。”这个洞察让她做出了那个“疯狂”的决定。

2012年,辛顿的学生就是用ImageNet数据集训练出了AlexNet,错误率从26%降到15%,这个突破震惊了整个学术界。李飞飞在对话中说:“这个顿悟让我坚信:大数据是驱动机器学习的关键,如今它已成为所有算法的基础构建模块,也是当代AI扩展定律的核心要素。”

有意思的是,杨立昆在后续对话中提到,ImageNet的成功其实让整个学术界走了一段“弯路”。

他直言:“李飞飞院士创建的ImageNet标注数据集,意外让监督学习展现出超预期效果,这使得我们暂时搁置了无监督学习路线——整个产业界和学术界都转向了监督式深度学习。直到2016到2017年左右,我们才幡然醒悟:监督学习无法带我们抵达终点,必须回归自监督学习。大语言模型就是最佳例证。”

杨立昆这段话里学术名词不少,我用直白的方式解释下:你可以把监督学习理解成有人类参与的机器学习,就像有老师带着刷题;无监督学习则是机器自己琢磨,不给任何答案和标注,全靠自己在一堆数据里找共性。正因为李飞飞的标注数据集做得太好了,所以当年很多技术团队都纷纷投入精力做监督学习。

这个细节让我印象深刻。其实某段时间,如果一个产品或者一个技术方案的成功太耀眼,会让所有人都以为这就是正确答案,就是唯一一条路。但最终,ChatGPT证明了AI的自监督学习才是更强大的范式。

04 关于AI泡沫

第三条笔记是关于AI泡沫。当主持人问到“当前AI是否存在泡沫”时,这场对话出现了第一次明显的观点碰撞。

黄仁勋的回答格外坚定:“我认为必须从根本上区分当前AI热潮与互联网泡沫的关键差异。回顾互联网泡沫时代,当时部署的光纤绝大多数处于闲置状态——行业建设量远远超出实际需求。而如今,几乎每一块GPU都在全速运转,并创造价值。”

他的逻辑很清晰:互联网泡沫时期,是基础设施建好了但没人用;而现在,每一块GPU都在被充分利用、产生价值。他甚至说:“我们正见证两条指数级增长曲线的交汇:一方面,生成AI答案所需的算力正在激增;另一方面,AI模型的实际使用量也呈指数上升。”

作为全球算力领域的霸主,黄仁勋自然坚持认为当前AI热潮没有泡沫,毕竟他本就是这波AI浪潮中的最大受益者。

但杨立昆给出了完全不同的答案。他表示:“从某些角度来看,当前AI领域确实不存在泡沫——毕竟基于大语言模型的应用开发仍处于爆发阶段;但另一方面,某种程度的泡沫又真实存在,主要体现在人们误以为仅靠现有大语言模型范式,就能实现人类级智能的预期。我个人对此持怀疑态度。”

说实话,我觉得他们俩说的都对,只是看问题的时间尺度不同。黄仁勋站在产业界的角度,看到的是每一块GPU都在创造价值,看到的是应用场景的爆发式增长。而杨立昆站在学术界的角度,看到的是现有技术范式的局限,看到的是“仅靠LLM无法实现人类级智能”。

本吉奥的观点介于两者之间:“如果现实进展未达预期,短期内或许会引发市场调整。但就长期发展而言,我完全认同基础设施建设的核心价值。”他这发言既承认短期可能有波动有泡沫的存在,又认可长期价值。

其实,真正的问题不是“有没有泡沫”,而是“你的期望周期有多长”。如果你期待一两年就看到AI改变世界,那可能会失望;但如果你看10年,那现在的所有投资很可能是值得的。

第四条笔记是关于“AI何时达到人类智能水平”这个问题。主持人做了个快速问答,让每位嘉宾直接给出时间预期。结果六个人给出了六种完全不同的答案,这可能是整场对话最精彩的部分。

辛顿的回答最激进:“如果将问题具体化为‘何时能与机器辩论却始终落败’,我认为20年内必然实现。虽然现在尚未达到,但我确信二十年内就会出现这样的机器。”

李飞飞的回答最辩证,也最中立:“机器智能在某些方面会超越人类,但在另一些方面永远无法与人类智能等同——因为它们的设计目标本就不同。关于何时实现超越?其实部分能力现在已经实现。在座有几人能识别22000种不同物体?又有多少成年人能翻译上百种语言?”

黄仁勋的回答最实用:“我们现有的通用智能水平,已足以在未来数年将这项技术转化为海量社会应用。事实上,这个过程今天已经在发生。所以我的答案是‘无需纠结’,也‘正在发生’——如何理解,取决于每个人不同的判断。”

杨立昆的回答最谨慎:“或许未来五到十年内,我们能在新范式探索上取得重大进展。但如果要实现根本性突破,很可能需要比预期更长的时间。目前甚至没有机器人能达到猫的智能水平,这说明我们仍然缺失某些关键认知模块。”

比尔·达利的回答最务实:“我基本赞同Jenson的观点——这本身可能就是个错误命题。我们的目标从来不是创造替代人类或超越人类的AI,关键不在‘是否会取代’,而在于‘作为文明社会能否构建这样的智能’。但核心宗旨始终是:打造增强人类能力的AI。”当然,这里我补充一句,达利说的Jenson就是黄仁勋,也是他的老板。

本吉奥的回答最开放:“关于这一点请允许我提出不同见解。我认为没有任何理论能证明我们永远无法造出具备人类全部能力的机器。过去六年来,AI在不同时间维度上的规划能力正呈指数级增长。若保持这个趋势,预计五年内AI就能达到普通雇员的工作水平。”

说实话,看完这六个回答,我最大的感受是:这些分歧本身就说明了AI还处于非常早期的阶段。如果AI真的已经接近人类智能,这六个最懂AI的人就不会给出如此不同的答案。他们的分歧,恰恰证明了我们对AI的理解还远远不够。

其实,他们的分歧背后,折射的是大家对“智能”这个概念的不同理解。你看:

辛顿关注的是能力边界——机器什么时候能在辩论中赢过人类;李飞飞关注的是定义本身——机器智能和人类智能根本就不是一回事;黄仁勋关注的是商业价值——能不能用才是关键,什么时候达到人类水平不重要;杨立昆关注的是技术完整性——现在连猫的智能都达不到,还谈什么人类智能;比尔·达利关注的是人机关系——我们要的是增强人类,不是替代人类;本吉奥关注的是工作能力——能干活就算智能。

说实话,看完YouTube上的这场访谈的完整视频后,我和评论区的很多网友有同样的感受:太不过瘾了。

这六个人如此难得地坐在一起,整场对话却只有30分钟。要知道,这里面任何一个人单独做一场访谈,都能聊上两三个小时。六个人坐在一起,30分钟能聊什么?每个人平均只有5分钟的发言时间。很多精彩的观点刚刚展开,就被主持人打断进入下一个问题了。

更让人遗憾的是主持人的问题设计。我甚至怀疑主持人根本没做功课,只想靠“AI有没有泡沫”这类话题制造噱头。这个问题确实很吸引眼球,但对这六位嘉宾而言,实在太浪费时间了。他们每个人都在AI领域深耕几十年,有太多更深刻、更有价值的洞察可以分享,结果却被困在“有没有泡沫”这种二元问题上。

评论区有个网友说得好:“这就像请了六位物理学大师坐在一起,却问他们‘物理学有没有用’。”

当然有用,但这真的不是重点啊。重点应该是:他们在研究过程中遇到了什么困惑?他们对未来有什么不同的判断?他们之间的学术分歧是什么?这些才是真正有价值的内容。

当我在朋友圈吐槽的时候,有个朋友问我:“如果让你采访,你会问哪三个问题?”这真是个好问题,让我认真思考了很久。最后,我可能会问下面这三个问题:

第一个问题:过去两年,AI在哪个领域的实际应用最让你觉得不可思议?请举出具体案例。第二个问题:未来两年,在你视野所及的公司或研究团队中,你最关注哪个项目的研究进展与技术突破?第三个问题:如果现在你是一个刚走出校园的大学生,身处这个AI时代,你会做什么事情?

最后,看完这场对话,我最大的感受是:不要被“AGI何时到来”、“AI有没有泡沫”这种宏大问题困住。

这六位站在AI金字塔尖的人,对这些问题都没有统一答案。辛顿说20年,杨立昆说可能更久,黄仁勋说现在就能用,李飞飞说这个问题本身就有问题。他们的分歧,恰恰说明AI还处于非常早期的阶段,没有人能准确预测未来。

但有一点是确定的:AI会持续进化,应用场景会持续扩展,对我们生活的影响会越来越大。 与其纠结“AGI什么时候到来”这种虚头巴脑的问题,不如想想现在的AI能帮你解决什么实际问题。

辛顿等了40年才等来算力,李飞飞花了3年做ImageNet数据集,他们的故事告诉我们:真正有价值的技术,需要时间,需要坚持,也需要等待时机成熟。

来源:人人都是产品经理一点号

相关推荐