摘要:近日,Meta 首席 AI 科学家、图灵奖得主杨立昆(Yann LeCun)接受了加州大学圣地亚哥分校杰出物理学教授 Brian Keating 的专访。畅谈目前人工智能的局限性是什么?我们需要哪些进步才能实现类人智能?我们如何安全地开发人工智能以符合我们的价
近日,Meta 首席 AI 科学家、图灵奖得主杨立昆(Yann LeCun)接受了加州大学圣地亚哥分校杰出物理学教授 Brian Keating 的专访。畅谈目前人工智能的局限性是什么?我们需要哪些进步才能实现类人智能?我们如何安全地开发人工智能以符合我们的价值观?
以下是本次访谈的几个关键结论:
1.大型语言模型并非人工智能的全部,其能力高度依赖于文本训练,缺乏对物理世界的直接理解。
2.自监督学习是构建更强大、更通用人工智能的关键,其重要性如同物理学中的暗物质,构成智能的基础。
3.JEPA(联合嵌入式预测架构)代表了一种新的自监督学习范式,通过构建心理模型实现对复杂现实世界的预测。
4.当前的人工智能系统,包括大型语言模型,尚不具备人类的直觉、常识和推理能力,尤其在理解物理世界方面。
5.追求人类水平人工智能,必须超越自回归型大型语言模型,探索能够处理复杂环境和物理世界的架构。
6.通用人工智能(AGI)的说法具有误导性,人类智能高度专业化,未来应关注能够达到人类水平表现的特定领域AI(AMI)。
7.人工智能的安全并非通过证明其安全来实现,而是通过工程设计,构建出符合人类价值观和目标的目标驱动型系统。
8.人工智能发展应关注目标驱动,避免基于“自发统治欲望”的假设,并以可控的方式将其与人类价值观对齐。
以下是本次对话实录:
主持人:杨立昆,欢迎来到《驶向不可能》播客。
杨立昆:很高兴来到这里。
主持人:你可能会注意到,我的背景中,有一段引言,我想让您告诉我的听众,这段引言对您意味着什么。
杨立昆:那是《2001:太空漫游》中的一句著名台词。我必须说这部电影对我的影响很大,因为我在九岁时就看过这部电影,当时它刚上映。这部电影给我留下了非常深刻的印象,因为它谈论着所有我着迷的东西,宇宙和太空旅行,以及智能如何出现。那时我九岁,还有智能计算机之类的东西。
01
大型语言模型的局限:锤子与钉子
主持人:大多数人没有意识到,我们正在收听的播客这个词就来源于那里。在您的竞争对手公司,苹果公司里,有一位工程师,名叫维尼·契耶科,他像您一样受到HAL9000的启发,他看到了这款闪闪发光的白色小型设备的样机,后来被称为,他说,我们必须称它为iPod,剩下的就成了历史,这就是播客的由来。所以我们总是用戴夫和哈尔的对话来开启节目的音频部分,让哈尔打开吊舱舱门,但他拒绝这样做。一些您的同事,包括最近的诺贝尔奖得主杰夫·欣顿,可能会因此感到恐惧,但是我一直想先从你在《华尔街日报》10月,诺贝尔奖颁发时被引用的的一句话开始。你说了一些对我来说非常有趣,或者说非常挑衅的话,你说,人工智能几乎和猫一样聪明。我心想,你还没见过我的猫,你知道吗?我的猫会把一杯水打翻,只是为了把它洒在我的笔记本电脑上,它们玩弄死老鼠只是为了好玩,我无法想象人工智能会做这种事,因为阻止它的唯一方法是每个房间里都有激光笔。所以,你这么说的意思是什么?为什么这会安慰我?
杨立昆:我的意思是说,我们最好的大型语言模型可以用非常惊人的方式处理语言,但它们基本上不了解物理世界,因为它们完全是在文本上训练的。因此,它们获得的世界形象是通过人类对它的表述而来的,这种表述首先是非常符号化的,但却是近似的、简化的、离散的。现实世界比这复杂得多,我们的人工智能系统完全无法处理现实世界。这就是为什么我们的大型语言模型可以参加法学考试,但我们仍然没有能够像任何十岁孩子一样,一下子就完成任务的智能机器人,而无需花费大量的脑力。因此,我说一个十岁孩子,实际上对猫来说也是如此。如果你看到猫试图跳上一堆家具,去够一个感兴趣的东西,它们会坐下来,然后转动头部,计划它们的轨迹,然后它们会弹跳,你就会想,它们是如何做到这一点的?它们可以计划,可以推理,它们了解物理世界,它们对自己有很好的模型,包括它们自身的动力学,以及关于事物的直观物理。这些是我们今天无法用计算机复制的东西。
主持人:关于这些物体,似乎总是有乐观和悲观两种情绪,我想知道,有一种叫做修昔底德陷阱的东西,一个崛起的力量走上台面,它很弱,然后主导力量把所有的注意力都集中在它上面。这有点类似于沉没成本谬误。我想听听你的看法,我们是否在自掘坟墓,至少在物理科学方面,这种GPU加大型语言模型的方法,是否正在吸走这个领域的所有氧气?我的意思是,就消费者而言,这驱动了英伟达达到三万亿美元。我们现在是否完全致力于GPU加大型语言模型模型,这会不会扼杀物理学领域的真正创新?
杨立昆:好坏参半。如果如果大型语言模型让我们痴迷,它们会吸走其他的一切,那情况就是这样,而且目前看来有点像这样,大型语言模型有点像一把锤子,现在一切看起来都像钉子,这是一个错误。我的意思是,这是我要表达的观点,大型语言模型不是人工智能的全部。考虑到它们概念上的简单性,它们具有惊人的强大功能,但是它们有很多事情做不了,其中之一就是表现和理解物理世界,当然,计划在物理世界中的行动也不是大型语言模型能做到的。因此,我认为这是未来几年人工智能面临的巨大挑战,要超越自回归型的大型语言模型架构,转向可能理解现实世界,获得某种程度常识的架构。
你知道,我们的智能运作方式,至少对于需要深思熟虑的有意识的推理的复杂任务来说,是我们对世界的运作方式有一些心理模型,我们可以想象我们的行动结果会是什么,我们的行动的影响是什么。这就是让我们能够进行计划的原因,因为我们可以想象一系列行动的结果会是什么,我们可以优化行动顺序来实现特定的目标。当猫站着向上看,试图找出要遵循的轨迹时,实际上发生的就是这种情况,那就是计划。它们有关于自己的心理模型,有关于它们要跳过的材料的心理模型。我们也一直在这样做,通常甚至没有意识到。这应该引起物理学家的兴趣,我希望我们可以在接下来讨论这个问题。
02
JEPA的崛起
主持人:是的,我想提出这个人的名字,阿尔伯特·爱因斯坦。因此,在1907年,他做了这个思想实验,他设想了一个自由落体的观察者。在电梯里,天哪,假设电缆断了,电梯掉下去了,这样的人将不会感受到重力场。他称之为他一生中最快乐的想法。我想问你,在什么情况下,或者是否有可能,A,计算机可以有一个快乐的想法,更不用说最快乐的想法。B,如果没有化身,没有一些发自内心的感觉来知道我们每次坐过山车或电梯不正常移动时的那种胃里的感觉,人工智能,一个计算机系统,如何才能具备像爱因斯坦那样构建新物理定律的能力?
杨立昆:简而言之,今天,不行,今天的人工智能系统无法拥有这种直觉。尽管,最适合用于科学发现的人工智能系统,都是专业模型,对吧?所以你想预测蛋白质的结构,或者预测两个分子之间的相互作用,或者某种材料的特性,你会为此开发一些专业的模型。你不能真的把大型语言模型用于这类工作,它们只会重复它们接受训练的内容,但它们无法提出新的东西。这些模型当然很强大,因为它们预测了一些以前没有人尝试过的化学反应,以及一些没有人构建过的材料特性。所以它们比大型语言模型略微偏离了既定轨道,大型语言模型基本上是现有知识的索引方法。但是它们不会拥有爱因斯坦所拥有的那种洞察力。目前还没有,但希望在某个时候会出现。所以我最大的科学问题是我感兴趣的,是如何做到这一点,如何让计算机,无论是人类还是动物,建立现实世界模型,以及当它们认为自己正在弄清楚系统或者您有兴趣建模的东西的适当表征和相关变量,以及该表征的正确抽象级别时?例如,你我知道,我们可以在木星上收集无限量的数据,关于木星的已知数据量非常巨大,关于天气,密度,组成,温度,所有的一切。但是谁会想到,要预测木星未来几个世纪的轨迹,只需要知道六个数字,三个位置和三个速度就足够了。你做完了,甚至不需要知道密度、组成、旋转之类的东西,只需要六个数字。因此,要做出预测,最困难的步骤是找到对现实的适当表征,并消除所有不相关的东西,这样才能做出这些预测。在过去的几年里,我一直痴迷于我认为能够做到这一点的架构,我们称之为JEPA。
主持人:我想让你讲一下。
杨立昆:当然,我当然想讲一下,我还想感谢您再次提到了《2001太空漫游》,木星,当然,是他们发现神秘巨石的地方,巨石使他们能够穿越可能存在的虫洞。好的,来谈谈JEPA,那是什么?我不熟悉。
杨立昆:大型语言模型的一个特点,或者说一个技巧,我提倡很久了,叫做自监督学习。什么是自监督学习?基本上,你获取一个输入,可以是序列,可以是任何东西,可以是图像,你用某种方式损坏它。然后,你训练系统从损坏的输入中恢复完整的输入。在语言和大型语言模型的背景下,有几种类型的自然语言理解系统,但在当前大型语言模型出现之前,有一种系统会获取一段文本,通过删除一些单词,用黑标记替换它们,或者替换一些单词来损坏它,然后你训练一个大型神经网络来预测缺失或错误的单词。在这样做的过程中,系统学习了一种很好的文本内部表示,可以用于各种潜在的应用,例如,作为翻译系统或情感分析或摘要的输入。
大型语言模型是其中的一个特例,你在构建系统架构时,系统可以做到,为了预测输入中的一个单词,系统只能查看它左边的单词。所以它只能查看前面的单词来预测特定的单词,因此你不再需要进行损坏过程,因为架构基本上通过阻止系统查看所有数据来内在损坏系统,它只能看到特定单词左边的东西来预测那个单词,对吧?因此,你输入一个输入,然后训练系统仅在其输入上复制其输出。这就是自监督,因为没有要求系统完成的任务,输入和输出之间没有区别,一切都是输出和输入。好的,这就是自监督学习。
现在,它在语言方面效果非常好,在DNA序列和各种其他方面也效果非常好,但它仅适用于像语言这样的离散事物序列,对吧?语言中只有字典里有限数量的单词,你永远无法预测哪个单词会跟在一系列单词后面,但是你可以预测所有字典单词的向量得分或概率分布,这很容易做到,这只是一个介于0到1之间且总和为1的大向量。你如何处理自然数据?好的,从传感器或摄像机获取的数据?
现在,你的数据是视频,或者让我们假设只是一张图像,那么你可以尝试做同样的事情,对吧?获取图像,通过遮盖其中的一部分来破坏它,然后训练一些神经网络来重建完整的图像。这被称为掩蔽式自动编码器,但效果不是很好。实际上,有很多方法可以训练系统从部分视图重建图像,它们被称为自动编码器,但是有很多方法可以训练它们。掩蔽技术只是其中一种,所有这些方法的效果都不是很好。顺便说一句,所有这些技术都受到统计物理的启发。所以,一个特定的方法就是使用变分自动编码器,变分来源于变分自由能,所以它的数学原理是一样的。
主持人:它会失败吗?是否因为它缺少一些边界条件或初始条件,就像三体问题那样?我去年有一位本科生,试图回答以下问题,如果你有过去一万年水星的轨道,我们可以做到,我们实际上从喷气推进实验室和美国宇航局得知了它的轨道,对吧?因此我们知道了它大约200年的轨道,因为它的年份比我们的快得多。我说,给定这些数据,你能预测到牛顿力学中缺少某些东西吗?换句话说,你必须用一个新的变分方法来增强它,即爱因斯坦拉格朗日量的变分。它无法做到。它知道它可以预测到水星的异常进动,但它无法得到方程式,我们基本上是强迫它,通过给它输入爱因斯坦方程式的类似物。我们想回答的问题是,如果我们有1899年的大型语言模型,我们能否预测出爱因斯坦的广义相对论?答案是,至少就我们正在使用的机器学习类型模型而言,我们做不到。这是否是缺失的东西?或者是因为它缺少爱因斯坦的天才所必须拥有的核心洞察力,还是其他原因?
杨立昆:不是,是其他原因。
主持人:好的,那是什么?
杨立昆:那有点更平淡,不幸的是。事实是,要预测像图像或视频这样的高维连续信号,很难表示所有可能图像的概率分布。你可以,当你要预测一个单词时,你不知道序列之后会跟着哪个单词,但是你可以大致知道。如果你有一个动词,可能会有一个补语跟在后面,诸如此类。所以你不能对视频这样做。所以如果你展示一段视频,如果你训练一个系统来预测视频中会发生什么,你向它展示一段视频,然后暂停,你让它预测接下来会发生什么,然后你向它展示接下来会发生什么,然后你训练它来实际预测。它效果不是很好。我一直在研究这个问题,差不多有10年了,它真的不起作用。
主持人:我相信你。
杨立昆:它不起作用的原因是,如果你训练系统进行单一预测,那么它能做的最好的事情就是预测所有可能发生的未来的平均值,基本上是一张模糊的图像。因为,你知道,即使,即使我们拍摄像我们现在这样说话的视频,我可能会说这个或那个词,我可能会把头往这边或那边移动,我可能会把手往这边或那边移动。所以,如果系统必须做出一个预测,而我们训练它最大限度地减少预测误差,它只会预测所有可能发生的事情的平均值,你会看到我手的模糊版本,我的脸的模糊版本,我的嘴的模糊版本,那不是一个好的预测。因此,这行不通,通过重建或预测的自监督学习对于自然信号不起作用。
所以,现在我来谈谈JEPA的想法,好的?所以JEPA代表联合嵌入式预测架构。什么是嵌入?嵌入是信号的表示形式,对吧?你获取一张图像,你不在乎所有像素的精确值,你在乎的是某种表示形式,它将是一组数字,一个向量,代表图像的内容,但不代表关于它的所有细节。好的,这是一个嵌入。联合嵌入是指,如果你获取一张图像,并且你获取了该图像的损坏版本,或者说图像的略微转换版本,例如不同的视角。图像的内容并没有改变,因此嵌入应该是相同的。因此,联合嵌入架构的训练方式基本上是忽略这一点,然后你训练它,以便当你向它展示同一图像的两个版本时,你得到相同的嵌入,你强制它生成相同的嵌入。好的,本质上是相同的输出。然后P代表预测,假设图像的一个版本是视频中的一帧,而损坏的版本是前一帧。现在你要做的就是从前一帧预测下一帧,或预测接下来的几帧。这称为JEPA,一种联合嵌入式预测架构,对吧?
你有两个嵌入,一个获取视频的未来,一个获取过去。然后你有一个预测器,试图从视频的过去的表示中预测视频的未来的表示。当你使用这种类型的架构来训练系统学习图像的表示时,效果很好。我的同事和我以及许多其他人,在过去几年里提出了一些不同的技术来做到这一点,而且效果很好。因此,我们可以学习很好的图像表示。我们开始获得很好的视频表示,但这很新鲜。但是你可以想象,现在你有了我在谈论木星时说过的原则,你有关于木星或水星的数据,然后你让系统找到你拥有的所有数据的良好表示形式,消除所有无法预测的东西,这样你就可以在表示空间中进行预测。因此,消除所有你无法预测的东西,例如木星上的天气,以及你无法预测的各种细节,只找到一种表示形式,以便你可以在该空间中的某个时间范围内进行预测。在我看来,这确实是理解世界的本质,你在做物理学时,你试图找到一种现象的模型,消除所有不相关的东西,然后找到一组允许你进行预测的相关变量。这才是科学的真谛。
主持人:其中是否有任何主观的类似物,例如你谈论一个模型的温度之类的东西?你是否仍然必须指定这样的参数?
杨立昆:在这种情况下,不用,因为当你有这种类型的架构,或者至少我描述的简单的架构时,你消除了预测中的随机性。基本上,我的意思是,当系统被训练为这样做时,它会同时训练自己以找到输入的良好表示,该表示尽可能保留输入的多的信息,但与此同时,它仍然是可预测的。因此,如果输入中存在不可预测的现象,例如混沌行为,你无法预测的随机事物,例如粒子运动,由于热波动等,它不会保留此类信息。它将消除它,只保留输入中可用于预测的相关部分。所以,例如,取一个装满气体的罐子,我们可以测量关于它的一切,包括所有粒子的位置,这是一个巨大的信息量,你无法预测,因为你必须知道每个粒子如何与墙壁,以及散热器等相互作用,所以你无法对此进行任何预测。然后,系统会自发地说,我无法预测每个粒子的轨迹,但是我可以测量压力,体积,可能还有粒子数量和温度,看,当我压缩时,热量上升了。因此,PV = nRT之类的东西。我认为这真的是机器学习与科学或者物理学相结合的本质所在。另一个我认为令人着迷的方面,我们尚未对其进行充分探索,因为这有点新概念,是表示的抽象层次的概念。人们在物理学,在科学中会这样做,对吧?原则上,我们可以用量子场论来解释我们之间正在发生的一切。
主持人:是的,我想是的,尽管人类意识的主观性可能会发挥作用。
杨立昆:不,这只是粒子在相互作用,对吧?原则上,这一切都可以归结为量子场论,但这完全不实用,因为你必须操作的信息量太大了。因此,我们使用不同级别的抽象来表示消除细节的现象。你知道,量子场论,然后在此基础上,我们有粒子基本粒子理论、原子理论、分子、材料。然后,你知道,你在等级结构中不断上升,你还可以到达生物学,物体相互作用,然后是心理学,对吧?因此,找到好的抽象表示层次,使您能够理解正在发生的事情,同时消除所有不相关的细节,这真的是智能的根源。
主持人:我和某人进行过辩论,我猜他不是你的好朋友或你的人工智能冠军,彼得·蒂尔。那是五月份的事,我们争论是否可以从大型语言模型中进行推断。它们有一些涌现的东西,但不清楚它们目前缺乏的是什么,能够让它们达到人工智能爱因斯坦的水平。我称之为人工智能爱因斯坦。那是训练数据。你在去年早些时候与我们共同的朋友莱克斯·弗里德曼的谈话中也谈到了这一点,基本上是说,大型语言模型有20万亿个代币,但一个四岁的孩子拥有的数量级更多,也许他们会获得更多,也许他们确实获得了10倍的提升,但我想说,阻止我们提出广义相对论类似物或万有理论的原因是,人工智能目前还不知道《角斗士2》的剧情吗?我不这么认为。换句话说,可以提供和标记的训练数据是无限的,但有些东西非常不同,你知道,爱因斯坦不需要《速度与激情1》来提出广义相对论,洛伦兹不变性原理。那么,你认为获得新物理学的最可能途径是什么?是像JEPA这样,基于观测现象和预测,在两者之间建立桥梁的视觉数据和建模吗?还是像符号回归这样完全不同的东西,并且在我看来,至少我是一个实验宇宙学家,而不是理论物理学家,但关键是它是否需要只有人类才能提供的监督?所以,您认为通往万有理论的最佳途径是什么?这是我所在领域目前的目标。在你看来,从年轻人可能想要追求的工具和技术方面来说,最有可能的途径是什么?
杨立昆:好的,我认为人们一直在研究的许多技术,可能在短期内具有很大的实用性。例如,符号回归。麦克斯·克莱默一直在研究这类东西,他与纽约大学和弗拉特钢铁研究所都有联系,我也与他有联系。这真的很有趣。人们对这类东西的研究可以追溯到几十年前,但当时效果不是很好,因为计算机不是很强大等等。因此,已经取得了很大进展。我不认为这会产生具有我们正在谈论的那种洞察力的系统。那种爱因斯坦可能拥有的洞察力,或者说像费曼这样的其他物理学家,当然也不会仅凭自身就产生万有理论。我认为缺少的东西更加根本。因此,我们需要有能力构建系统的物理模型,我们人类和动物都能构建,并且该系统能够在自己的头脑中对其进行操作,并且使用极端情况,我想起了之前你说的思想实验,这正是爱因斯坦擅长的。有一个关于某件事的心理模型,假设一个假设,然后试图将该模型推向极端情况,看看会发生什么?或者像人们经常用来说明由于相对速度而导致的时间膨胀的思想实验那样。如果你观察到火车上有人在闪光,那光线在两面镜子之间上下跳动,对于那个人来说,光线以光速传播,并且只是在特定的高度上上下跳动,但是对于从外面观察的某人来说,光线是以对角线上下跳动,因此实际上是在更长的时间内传播,但仍然以光速传播,因此时间一定是收缩了。我的意思是,这是一个很简单的想法,一旦你想到这一点,就会显而易见,但是你必须做出光速对于每个人都是相同的假设。
杨立昆:还有一件事,你提到了训练数据,你需要知道什么,你需要看过《角斗士》才能提出相对论吗?当然不需要。有趣的是,历史学家似乎说,爱因斯坦不知道芝加哥大学的实验,迈克尔逊莫雷实验,该实验表明光速是恒定的。我不得不打断你,那是在我的母校,凯斯西储大学。
主持人:我不能让这个被忽略。对不起,请继续。
杨立昆:确实如此。他们试图证明以太的存在,但他们没有证明出来,他们认为他们的实验有缺陷。我不认为爱因斯坦知道这一点,至少历史学家说他不知道。因此,即使在没有实验证据的情况下,他也能提出这个概念。这很了不起。当然,他也受到了其他人的挑战,例如彭加莱。
主持人:现在认识你才40分钟,但我认为你是一个隐藏很深的物理学家。
杨立昆:我不是。
主持人:但我想要把你从柜子里拉出来。现在很安全了。你最近说了一些令人难以置信的话,我忍不住要说,因为它确实是在我的领域里,你说你将自监督学习比作人工智能的暗物质。就像物理学中的暗物质一样,它是至关重要的,我们知道它存在,或者我们认为它存在,尽管有些叛逆者,如果你感兴趣的话,我稍后会讲到。因此我们知道,中微子是暗物质的一种形式,我们知道它们存在,但我们知道它们不足以解释观测到的缺失物质的量。但是,你这么说的意思是什么?你将暗物质比作自监督学习是什么意思?
杨立昆:实际上这番话是八年前说的。几年前,我在一次主题演讲中说过。当时在场的是我的前同事,纽约大学的理论物理学家凯·克莱默,他现在在威斯康星大学。他说,你不应该使用暗物质作为类比,你应该使用暗能量,因为那是宇宙中大部分质量所在的地方。所以,我想解释以下类比:我们所学的大部分知识不是通过被告知答案来学习的,也不是通过反复试验来学习的,我们只是通过自监督学习来了解感觉输入的结构,或者类似的东西。我们不知道人类和动物具体使用什么方法,但它确实更像是自监督学习,而不是监督学习或强化学习。监督学习是指你有一个明确的输入和一个明确的输出,然后你训练系统将该输入映射到该输出。展示一张大象的照片,告诉系统那是一头大象,如果它说那是一只猫,请更正参数,以便输出更接近于大象。这就是监督学习。然后,强化学习是你向它展示一头大象,你等待答案,然后你只告诉它答案是否正确,你不告诉它正确的答案,你只是告诉它答案是否正确,可能还会给它打一个分数。现在系统必须在所有可能的答案中搜索哪个是正确的,如果存在无限的答案,那就效率低下。强化学习非常低效,不可能解释我们在人类和动物身上观察到的那种高效学习。监督学习也无法解释,因为我们学到的大部分东西都不是被教导的,我们只是自己想出来的,特别是动物,有很多动物种类在没有见过父母的情况下变得很聪明,一个很好的例子是章鱼,还有很多鸟类和其他物种的例子。它们学会了很多关于世界的知识,而且它们从未见过父母。因此,它们没有被告知任何事情,它们没有被教导任何东西。然后,还有一种模糊的东西,我们现在称之为自监督学习,这正是大部分学习发生的途径,如果说有什么,大型语言模型的成功确实清楚地展示了自监督学习的力量。
因此,我使用了一个类比,我展示了一张巧克力蛋糕的照片,我说,蛋糕的主体,海绵蛋糕,如果你愿意,就是自监督学习,蛋糕上的糖霜是监督学习,蛋糕上的樱桃是强化学习,如果你想量化不同学习模式的相对重要性,这是一个正确的类比。当我在2016年说这话时,全世界的目光都集中在强化学习上,强化学习本应是通往人类水平人工智能的道路。我一直不相信这一点。所以这有点争议,但现在不是了。所以我说,你知道,这块海绵蛋糕中存在着巧克力,这就是暗物质,是的,那就是人工智能的暗物质。这是我们必须弄清楚如何做到的一件事。我们现在处境尴尬,就像物理学家一样,我们知道如何进行强化学习和监督学习,但是我们不知道如何进行自监督学习,而自监督学习才是构成其主体的部分。
主持人:我们一直在探讨机器学习所需的许多统计输入,但有一个统计数据总是让我感到困惑,那就是观看视频的人中,只有一半的人订阅了我的YouTube频道。这确实有助于我们使用算法,杨在谷歌YouTube的竞争对手所使用的人工智能生成的算法。所以请帮忙,不会花你一分钱,但你肯定不会错过我们和杨这样的伟大思想家的对话,你也不会错过2025年即将发生的事情。现在回到这一集。
03
人工智能的暗物质:自监督学习的未解之谜
主持人:你和我组成的物质是由这些岩石块组成的,我会在我们最终见面时给你,这些是来自早期宇宙或早期太阳系的陨石,我把它们送给任何在其网站上使用.edu电子邮件地址的人。关键是,这非常重要。人们说,我们甚至不知道宇宙中90%的物质是什么,但是,你知道,我们所知道的20%的物质非常重要,没有它,我们就无法进行这场对话。上周我与你的同事斯蒂芬·沃尔弗拉姆进行了交谈,谈论到暗物质这个话题,他认为,他有一个非常规的暗物质想法,那就是宇宙是一个超图,据他说,宇宙通过纯粹的计算规则演变,时间是通过超图的更新速率产生的,他认为,由于时间和温度通过热力学定律与熵相关,他实际上暗示暗物质是他所说的时空热。我并不是要你专门评论这一点。我实际上并没有完全理解它,我们对此进行过辩论,因为我的问题是,可以吗?好的,有我们知道存在的暗物质,有我们不知道是什么的暗物质,它可能是一些奇怪的新粒子,例如轴子,它可能是一些我们不理解的新力场,但还有我们知道的暗物质,绝对的,中微子,百分之百,弱相互作用的大质量粒子。那么,时空热能解释中微子吗?今天中微子在宇宙中的温度约为1.9开尔文。所以我们解决这个问题。但总的来说,你认为宇宙是纯粹的计算的这种超图概念如何?作为一名研究人员,你对此有任何兴趣吗?
杨立昆:我不了解超图概念的具体内容,但我可以告诉你,我长期以来一直对物理学和计算之间的联系感到着迷。当我在1988年在贝尔实验室开始我的职业生涯时,我的同事都是物理学家,实验室是一个物理实验室。我是唯一一个非物理学家的人。我不想说计算机科学家,因为我的本科专业实际上是电气工程,我也做了很多物理,但是我的同事都是物理学家。我有一位非常聪明的同事叫约翰·邓克尔,他在我隔壁的办公室工作,我们都对物理学中的根本性问题以及它们与计算的联系非常感兴趣。我们参加了圣达菲研究所的几次研讨会,其中一次是由沃伊切克·祖瑞克组织的,他对这些问题也很感兴趣。我不知道您是否了解他的任何作品。但有像塞思·劳埃德这样的人,他当时刚刚完成博士学位。我们说的是1991年或1992年左右的事情。还有像默里·盖尔曼和约翰·惠勒这样的人。所以,约翰·惠勒做了一个演讲,他的演讲是,“万物源自比特”,这是他所做的一系列演讲的标题,他说,一切都是底部的信息。我们必须弄清楚如何用信息处理来表达我们的物理学。我一直对这个概念感到着迷,并且我一直在这个想法上思考了很长时间,但没有足够具体的术语来真正写一篇论文,但是围绕它有很多有趣的观点。当然,我与此相关的一个观点是可逆计算的概念,由于量子计算,它变得非常重要,但是在90年代早期,它并不那么受欢迎。
04
AMI:人类水平的人工智能
主持人:说到物理学家,我向观众收集了一些问题,我刚刚收到我的好朋友,也许也是你的朋友麦克斯·泰格马克发来的短信。您愿意回答麦克斯的问题吗?他向我发来了两个问题。第一个问题是,您认为什么时候会出现通用人工智能,通用人工智能被定义为可以完成几乎所有工作的AI?
杨立昆:我一直抵制使用通用人工智能这个词。原因不是我不相信人工智能系统最终会变得像人类一样聪明,我毫不怀疑,在未来的某个时候,我们将拥有在人类擅长的所有领域都和人类一样聪明的机器。毫无疑问,这是时间问题。但是,将此称为通用人工智能是完全无稽之谈,因为人类智能非常专业。我们很难接受人类智能是专业化的这一概念,但事实确实如此。这就是我不喜欢这个术语的原因。我比较喜欢“人类水平人工智能”或“AMI”,它代表高级机器智能。这是我们在Meta内部使用的术语。我们称它为“朋友”,因为我们这里有很多法国人。
杨立昆:它在法语中也意味着朋友,对吧?但这概念是一样的。那么,这需要多长时间?奇怪的是,像麦克斯·泰格马克这样的人会问我这个问题,原因是,如果你想投资数百亿美元建立训练大型人工智能系统的基础设施,如果你想告诉人们,在未来几年内,你就可以佩戴那些你最初向我们展示的智能眼镜,这些眼镜将提供一个你可以一直与他交谈的智能助手,你可以问它任何问题,它可能比你更聪明。你不应该感到受到威胁,它就像拥有一个你可以与之交谈并提出任何问题的聪明同事一样。所以,这需要多长时间?因此,我认为,要拥有一个至少在大多数人看来都像拥有人类同等智能水平的系统,如果所有我们想象的计划都能奏效,包括JEPA架构和我们正在尝试的其他一些想法,我预计这至少需要五到六年时间。但是,它会在五六年内发生吗?我认为这里有一个非常长的分布,人工智能的历史是,人们总是低估它的难度。我可能现在也在犯同样的错误,当我说是五到六年时,如果我们在没有预料到的情况下遇到重大障碍,如果我们计划尝试的所有事情都奏效,如果事情可以规模化,如果计算机加速,诸如此类,就会存在许多可能影响这件事情的因素,那将是最好的情况。
杨立昆:它不会在明年发生,您可能从一些人那里听说过,例如山姆·奥特曼、伊隆·马斯克和达里奥·阿玛迪等人,他们说它会在未来几年内发生。不。未来几年可能会发生的是,我们将越来越难以找到普通人问出大型语言模型都无法回答的问题。但是,我的猫在哪里?我的家务机器人呢?我的L5级自动驾驶汽车呢?能够只用20小时的练习就能学会驾驶,而不会撞死自己的自动驾驶汽车在哪里?
主持人:我好奇只是作为一个该领域的外行,我想知道你对它有多着迷,它对我的生活有多大影响,它让我受益匪浅,因为现在,我有了一群孩子,我不会给他们读书,我让Meta在晚上给他们读书,好吧,我没有这样做,但是我不认为这在道义上有什么问题,我感觉很好,因为如果你在读别人的书,那基本上是一回事。但是我认为,我们正在争论的事情,可能是,我能指出的最类似的例子是德雷克方程。德雷克方程可以参数化,你知道,基本上是对探测外星人的乐观态度的一种声明,它是基于许多参数的,这些参数总是在没有不确定性的情况下给出的。你作为一名科学家,我知道,最重要的是系统误差和统计误差很简单,系统误差很难,这才是物理学的精髓,这才是直觉的来源,这才是技艺的来源。但是,你知道,在这些问题中,总是会得到这样的数字,宇宙中存在数十亿的文明,或者一个都没有,这取决于你为误差条选择的值。同样,对于通用人工智能,它也是一个模糊的东西,人们以各种不同的方式来定义它。我同意你的观点,我不认为它是真的,但是,我认为,如果你想测试一下,你可以像图灵测试那样,想出一个新的物理定律,想出一个可以做出可检验和可证伪的预测的解决方案,我们可以说,这才是真正新的东西。它不是在复制,不是在预测,它没有温度依赖性。所以,你认为,如果你可以进行勒丘恩测试,而不是图灵测试,你认为你会怎么做?
杨立昆:这是一个坏消息,我不认为有什么单一的测试可以奏效。
主持人:这可能是对的。
杨立昆:因为任何你可以提出的子问题,都可能存在专门的解决方案来解决该问题,从而达到人类的水平。我们在计算机上看到了这一点,这就是计算机科学的历史,计算机的计算速度比人类快,现在它们可以翻译数十种语言,一个30美元的小工具可以在国际象棋比赛中击败你,肯定可以击败你。在那些我们想出来的,对人类来说很困难的各种任务中,例如游戏,我们之所以提出它们,是因为它们对人类来说很难,但是对于机器来说似乎并没有那么困难。例如,每个搜索算法,例如图中路径最短的算法,以及您的GPS使用的东西,您的地图应用程序所使用的东西,这些都是相当简单的算法,它们具有超人的表现。因此,任何你选择的特定应用领域,都将有针对它的特定的专门解决方案。因此,没有一个测试可以测试智能。我们现在观察到的是,人们对大型语言模型能够处理语言感到印象深刻,事实证明,处理语言很简单,比我们想象的要简单。
实际上,它必须很简单,因为它只是在过去的几千年里才在进化中出现,并且考虑到人类和黑猩猩的基因组之间的差异,它在基因组中所占比例非常小,如果有的话,可能是一小部分,也许相当于几兆字节的基因信息,这真的不算什么。在大脑中,语言是由两个微小的区域处理的,布罗卡区和韦尼克区。布罗卡区用于产生语言,韦尼克区用于理解。我们受骗了,认为这些东西是智能的,具有通用智能,因为它们表现得有点像人类,但实际上它们非常肤浅。当我们试图构建能够完成非常简单的物理任务的系统时,我们就会看到这一点,但事实证明,这非常复杂。它们真的做不到。我不认为我们有很好的解决方案。尽管如此,机器学习在机器人技术和其他领域也取得了进展,但我们仍然远未达到目标。
05
AI的威胁
主持人:麦克斯的第二个问题,你可能猜到了,你有什么计划来防止对更强大的人工智能失去控制?
杨立昆:好吧,我和麦克斯在这个问题上存在分歧,我们一直在各种小组中讨论这个问题。我也不同意杰夫·欣顿的看法,我们是朋友,但我们在这个问题上存在分歧。首先,存在一种隐含的观点,如果一个系统是智能的,它就会想要以某种方式接管和统治。这完全是错误的。这不仅是错误的,而且即使在人类中也不是真的。你知道,并不是我们当中最聪明的人想当首领,对吧?我们在政治舞台上看到了很多这样的例子。
主持人:没错。我们不会谈论政治。
杨立昆:认为智能必然与统治欲望相关的想法是错误的。为了产生统治欲望或仅仅是意外地支配,必须在实体中加入某种固有的竞争资源驱动力,或影响其他实体以便从中获利的驱动力。而这种特征,支配欲望,是社会物种在生物学中的一个独特特征,对吧?因此,你在狒狒身上可以看到支配和服从行为,你在黑猩猩身上可以看到,你在狼和狗身上也看到了。你在人类身上也看到了,尽管在人类中,还有另一种获得社会地位的方式,那就是声望,对吧?你和我都是学者,因此我们不是通过武力来影响他人,而是通过声望来做到,或者我们希望如此。但是,以红毛猩猩为例,红毛猩猩不是社会性的,它们是独居的,事实上它们有自己的领地,而且它们没有任何支配任何人的欲望,因为它们不需要。
因此,智能与统治欲望之间存在内在联系的想法是错误的。只是错误的。好的,现在,问题是,你如何确保人工智能系统的驱动力与人类的价值观保持一致?并且这些系统不会通过蓄意行动或意外行动来摧毁我们?如果你推断大型语言模型的能力,你可能会感到恐惧,因为大型语言模型在某种程度上本质上是不安全的。现在,它们不是很聪明,所以这无关紧要,但是它们是不可控制的,因为它们的输出方式不是通过优化目标实现的,不是通过试图找出能够满足目标的操作顺序来实现的。它们只是在没有太多思考的情况下,自回归地产生一个又一个标记。
主持人:但是,你为什么说那是不安全的?我的意思是,我的孩子也做同样的事情,但是她没有权力,对吧?那里没有行动,没有化身,没有可以让她对我做任何事的控制网络,即使她随机地发疯了。
杨立昆:从成年人的角度来看,她可能会坐在你的腿上,在你电脑前,然后随机敲击键盘,破坏你的整个文件系统。
主持人:但是她不会发动核战争,对吧?她不会。
杨立昆:不,因为她没有那种权力,但普通人也没有那种权力,人工智能系统也不会有那种权力,除非我们建造它的方式太愚蠢。你的女儿拥有的驱动力是进化硬编码到她身上的。其中一些驱动力与探索世界,学习世界的运作方式有关,但是其中一些驱动力非常具体。因此,对于幼儿来说,有一种想要站立起来的驱动力,因为那是你学会走路的方式,对吧?因此,当他们站立起来时,他们会感到快乐,这是硬编码的。有一些硬编码的目标。因此,我谈论的是硬编码的行为,我谈论的是诸如此类的事情,你知道,你触摸婴儿的嘴唇,婴儿会开始吸吮,对吧?那只是硬编码的直接行为,只是神经回路做出的反应。我谈论的是硬编码的目标。因此,你被驱动去做的事情,但自然界并没有告诉你如何做。例如吃饭,对吧?我的意思是,自然界并没有告诉你如何寻找食物。你必须自己做,在父母的帮助下。
主持人:麦克斯的同胞瑞典人,尼克·博斯特罗姆,来过这个播客,他因他的回形针问题而闻名。但我向他指出,你不可能生产无限多的回形针,因为地球的核心或任何小行星或任何太阳系中只有那么多铁,所以这有点荒谬,他们首先必须拥有能力、欲望、目标目的。我不说不可能,因为这是我的一个原则,我不会说任何事情是不可能的。但是,麦克斯似乎痴迷于证明一些无法证明的东西。他问你如何证明它是安全的,但是如果证明是否定的?
杨立昆:我不相信。我我的意思是,伯特兰·罗素也希望找到证明人工智能系统安全的方法。我认为这和证明涡轮喷气机绝对安全一样不可能。你无法证明涡轮喷气机是安全的,但是我们可以制造非常可靠的涡轮喷气机,它们可以带你环游世界,并且乘坐两台发动机的飞机是绝对安全的。那是令人难以置信的技术。我们可以做到这些事情,人工智能也将如此,不会有灵丹妙药,也不会有证明我们可以建造安全系统的方法,但我们将设计出安全的系统,而我认为我们设计它们的方式是,这将是我的想法,那就是我们构建的系统是目标驱动的。我称其为目标驱动的人工智能。系统的输出不是通过一个接一个的生成标记来实现的,而是通过优化目标来实现的。根据你采取的一系列操作,它的头脑中有一个情况的心理模型,在系统中,该系统有一个它想要采取行动的环境的心理模型,它正在想象它可以完成的一系列操作,通过这一系列的操作和它的心理模型,它可以预测结果会是什么。现在你可以检查一下,这个结果是否满足了一系列目标,其中一个目标是,我是否完成了我设定的任务,例如制造一千个回形针。
但是,可能有其他目标,更像是约束,并且它们是护栏。所以,如果你杀人或伤人,你要付出很高的代价,或者,如果你的行为消耗了太多的能量,你要付出很高的代价,对吧?所以,你可以想象拥有一系列目标,有些是护栏,有些是任务目标。然后系统产生输出的方式是通过优化,它在行动序列的空间中搜索,以找到一个能够最大限度地减少所有这些目标和护栏的序列。现在,这是一个目标驱动的系统。这些系统无法被破解,除非你破坏它们,但你不能像破解大型语言模型那样破解它们,方法是给它一个奇怪的提示,这可能会超出它的条件。所以,这个系统无法被破解。它产生的唯一输出是满足其内部情况的心理模型的护栏的输出。现在,要制造安全的人工智能,就要看那些关于情况的心理模型有多精确,你要设置哪些护栏,才能确保这些事情不会出错,不会将整个星球变成回形针。这很容易做到。我的意思是,我们知道如何对人类做到这一点,我们一直在对人类做几千年了,这叫做制定法律。法律是一个护栏目标,它告诉人们,“好吧,也许你计划的行动对你来说很好,但是如果你这样做,你会被监禁五年。”因此,这会改变你的成本函数。
主持人:对于人工智能,它会使GPU中的电路短路。这会使它感到痛苦。
杨立昆:你知道,人类可以选择忽略这个护栏,但是一个目标驱动的人工智能系统是无法忽略它的,因为它必须优化它,所以它无法逃脱那些护栏。
主持人:我总是称之为神之空缺人工智能。它们好像在行动。我爱麦克斯,他对我很好,我多次请他来做节目。但是关键是,我们不会在某一天突然拥有通用人工智能,对吧?那是一个迭代的过程。我们已经看到了,对吧?我们看到了Waymo,对吧?实际上,我上周在洛杉矶看到了一辆Waymo,但是它是由一个坐在前排的人驾驶的,这让人非常困惑。那个人在驾驶那辆Waymo,这有什么意义?但我觉得,如果我们开始看到,你知道,就像,那么把这称为第0代或者全自动特斯拉。我坐过特斯拉,他们不会在人行道上行驶,你知道,那将是到达某地的最短方式。你知道,Waymo可以驶过人行道,以避开交通拥堵,那确实很忙,但它不会这样做。所以,我们将看到证据,如果存在护栏,在汽车的情况下,它们是字面上的护栏,它会驶出轨道。我们将在0.1代迭代中看到这一点。因此,这不仅仅是我们有一天会拥有HAL,即使是HAL,你知道,我想说,第一个操作系统也不是用操作系统构建的。总是有先驱,你知道,第一台计算机不是在计算机上设计的,根据定义。所以,第一个真正的人工智能不会由人工智能制造,因此不可能有这种递归。但在我谈到我在这个新时代作为教授的最后几个问题之前,我想让你说几句。你对人工智能有什么想法?我还有很多问题,但我们不得不等到下一部分,我知道你很忙。你对人工智能的危险有什么其他想法?我想你经常会收到这个问题,我的观众也问过你。
杨立昆:我对此持非常乐观的看法。我认为智能是我们在社会中最缺乏的最理想的商品,才能取得进步。因此,我认为拥有可以有效地增强我们智能的机器的影响,可能就像15世纪印刷机出现和书籍传播的影响一样具有变革性,它促进了知识的传播,让人们有理由学习阅读,这在以前是没有意义的。然后导致了启蒙运动、科学、民主,使人们摆脱了宗教的教条,变得更加理性。所以我认为这产生了深远的影响,对吧?它也暂时产生了负面影响,例如,印刷机允许传播导致人们相互残杀200年的想法,在欧洲,这是由于宗教教条或其他原因。但最终,它确实带来了封建制度的瓦解,导致了美国革命和法国大革命等等。因此,我认为人工智能将在增强人类智能、帮助人类完成那些原本需要其他人来完成的任务方面具有类似的变革性影响。我认为人类有一个光明的未来,如果我们能正确地做到这一点。我并不害怕麦克斯所描述的那种情况。
主持人:每个人,我知道如果你喜欢这些类型的对话,你一定会喜欢我的《周一魔法》邮件列表。在那里,我探索了来到我节目中的嘉宾的秘密,以及来自科学、技术、工程和数学领域的世界各地的其他令人兴奋的方面。最重要的是,我会将你们每个人都列入比赛中,以赢得这些陨石中的一个。是的,没错。早期太阳系的一个碎片,它是在一次灾难性的超新星事件中产生的。其燃烧的强度与我对我的周一魔法邮件列表成员的激情相同。我知道你会喜欢它的。
06
AI时代的教育转型
主持人:所以你认为人工智能对人类的变革性影响将超过20世纪初Facebook的戳功能?
主持人:说到Facebook,你是一位学者,你如何看待自己?你是教授?你是科学家?你是知名公司的一名员工?当你早上被一个超智能的人工智能叫醒,他问你时,你是如何定义自己的?
杨立昆:我是科学家。我也是一名教育工作者,不仅仅是因为我是大学教授,还因为我做诸如此类的事情,试图与更广泛的公众谈论科学的某些方面。但我真的是一名科学家。我大约在职业生涯中花费了相同的时间在工业界和学术界。我的职业生涯始于工业界的贝尔实验室,后来成为AT&T实验室,然后在NEC研究所工作了一段时间,然后我40多岁时成为了一名教授。我以前从未当过教授。在当了10年教授后,我加入了当时的Facebook,创建了Fair。我运行Fair四年,所以我是一名研究经理。我猜这只是兼职。我也仍然是纽约大学的教授。基本上,三分之二在Facebook,也就是现在的Meta,三分之一在纽约大学。在运行Fair四年后,在创建和运行它之后,我辞去了运行它的工作。我现在是Meta的首席科学家,首席人工智能科学家,我是一个个体贡献者,这意味着我不是经理,我没有下属向我汇报。我不管理任何事情。我讨厌管理任何事情。我是一个糟糕的管理者,没有条理。我不喜欢做这件事,它对我来说是一种折磨。我做了四年,那真的太折磨了。所以,我更感兴趣的是知识的影响。我在Meta的影响是,我正在规划一条通往人类水平人工智能的道路,因为你知道,那是我的科学追求。但是,也有着对智能助手的产品需求,它们可以在智能眼镜中发挥作用,并达到人类水平的智能。这是符合人们愿意付钱去购买的崇高目标的少数情况之一。
主持人:我可以看到我们之前讨论的视频技术如何为Instagram制作更好的滤镜,我使用了一些。实际上,我有一个诀窍,我不知道你是否发现了,但是我希望你没有发现,这样我才能做一些让你印象深刻的事情。你有没有坐过飞机,Wi-Fi收费19美元,而且是两个小时的航班,或者你可以免费发送消息。你有没有遇到过这种情况?你知道你可以免费使用WhatsApp AI吗?Meta AI,你的作品。你可以免费使用它,这算免费短信,你不用支付Wi-Fi费用,你就可以连接到互联网。
杨立昆:真的吗?
主持人:是的,你知道吗?我想让你印象深刻。
杨立昆:不不,那很酷,我不认为很多人会意识到这一点,你可以通过Meta AI来访问互联网。
主持人:是的,我用它来避免花19美元,你知道,使用每小时1兆比特的互联网连接。好吧,无论如何。不要说出来,因为航空公司会利用这一点。
杨立昆:我知道,我知道。
主持人:好吧,幸运的是我们的观众没有莱克斯·弗里德曼的观众那么多,但我们稍后会看看。麦克斯对此有何兴趣?我的意思是,这仅仅是为了制作更好的滤镜吗?大型语言模型,与Meta的主要产品WhatsApp,除了聊天机器人,Llama,还有Instagram、Facebook、Messenger和商店以及Meta所有很酷的东西之外,马克对此有何兴趣?我的意思是,我对他感兴趣,也许是在科学层面上,因为你知道,他没有接受过科学家的培训,但他对未来有这种愿景,这不仅仅是为了消费,对吧?必须有其他原因,他有什么使命?他的人生有什么宏伟的目标?
杨立昆:他的宏伟目标是将人们彼此联系起来,那是Meta的全部目标。那就是连接人们,而且非常专注于此。但是,连接人们也意味着连接的不仅仅是人,而是人与知识之间的联系,或者在日常生活中帮助人们,对吧?因此,未来的愿景是,你在2013年的电影《她》中看到过,斯派克·琼斯执导的那部电影,对吧?所以,那个人一直在与他的人工智能助手在一起,这个助手一直在他身边,要么是在眼镜里,要么是在你耳朵里的东西里,或者是一个带有摄像头的小东西,你带着它,你知道,助手随时都和他在一起。我认为那是未来的愿景,每个人都会和为他们工作的超智能助手一起生活。就像一个商业领袖,政客或学者,带着一群比他们聪明的人一起工作一样。这是不可避免的。我不知道你怎么样,但我一直有比我聪明的人在工作。
主持人:对。
杨立昆:所以那是一件好事。我认为人们应该对未来充满力量感。所以,如果你想要那样的愿景,Meta就有这样的愿景,你知道,它正在为此构建设备,对吧?那么,你就需要具有人类水平智能的人工智能,这本质上是一个产品需求,如果我们今天拥有它,它会产生巨大的影响,世界上每个人都会使用它。当我们说我们时,我们是指整个公司,我们已经和他们取得联系,但是人们已经把一些雷朋Meta眼镜带到印度的农村地区,送给农民。他们绝对喜欢它。他们说,看看这个,告诉我你看到了什么,告诉我发生了什么,然后想象一下这对你的未来意味着什么?
杨立昆:我的意思是,他们看着他们的植物,然后说,“好吧,这株看起来病了,你知道这是什么病?”或者,“这是什么虫子,我需要对此采取一些措施吗?”或者,“我应该现在收割吗?明天天气会怎么样?”有很多问题。他们可以用自己的当地语言做到这一点。
主持人:我可以和他们用一些印地语交流。
杨立昆:那是一种非常广泛使用的官方语言,但是大多数印度人都不使用或不熟悉印地语。
主持人:那是一种方言,对。他们有900种不同的方言,对吧?
杨立昆:我听说过700种,但已经很接近了。你知道,大约有20到30种官方语言。
主持人:所以,在我们结束之前,我还有两个问题。首先要问的问题与我们所做的事情有关。我也认为自己首先是一个父亲,丈夫等等,然后是一名科学家,然后是一名教育工作者,我也总是想问这个问题,伽利略,我的英雄,不是因为他名字里有AI,你知道吗?他是一位教授,他是一位科学家,但是他也需要赚钱,所以他会制造望远镜,前提是他可以出售使用手册,例如《星空信使》和对话录等等。但是我把我们做的事情称为第二古老的职业,因为自公元1000年以来,在意大利博洛尼亚,然后是牛津大学以及索邦大学,就有了教授。我不用和你赘述。你如何看待人工智能对其产生的影响?为什么应该有人听我的课,学习宇宙学、广义相对论,而不是向这位阿尔伯特·爱因斯坦学习?对于我和我的同事,作为教授来说,威胁和机遇是什么?
杨立昆:很明显,知识转移这个行业将发生深刻的变革,我们可能需要为科学研究和学术研究找到新的经济模式,这在社会中发挥着重要作用,但这不一定与教育联系在一起。现在,我仍然认为,博士学位和导师的想法,有点像绝地大师和学徒,这种关系仍然存在,因为这不仅仅是知识,对吧?我不知道你怎么样,但是我从我的学生身上学到的东西可能和他们从我这里学到的一样多,只不过是不同类型的学习。但是,互动在行为、道德方面很重要,你知道,什么是有趣的,应该做什么,科学和研究的实践是什么。在某种程度上,在人工智能的未来中,我们都会成为一组虚拟人员的负责人,你可以这样认为,这将包括商业领袖,教授,我的意思是,任何人,不仅是领导者,而是每个人,都将像今天拥有智能员工的人一样工作。当然,学生也会如此,因此你与学生的互动不仅是与学生之间的互动,而是在人工智能系统支持下进行的互动。
主持人:我发现这很棒,我并不感到害怕。我试图做,你知道,甚至当我建造望远镜,寻找大爆炸残留的热量时,我仍然对它着迷。实际上,我认为,人们现在我们只是刚刚开始,对吧?它说人工智能现在处于最糟糕的状态,只会变得更好。
杨立昆:没错。
主持人:我可以做得如此之快。有些事情必须受到监督,但重要的是它已经具有了120的智商,几乎涵盖地球上的所有学科,尤其是新的Llama模型。我对它们感到非常兴奋。但是,我要问你的最后一个问题,来自此播客的同名人物。阿瑟·C·克拉克说过,要了解可能性的极限的唯一方法是进入不可能,并超越它们。但是他还说过另一件事。他实际上说了一些非常有趣的事情。他说,对于每一位专家,都有一个同等和相反的专家。所以我时不时会用这句话来让我的系主任免除我的教学任务。但是他说了以下的话,他说,当一位年长但杰出的科学家,我不是说你老了,但我是说,当一位年长但杰出的科学家,当然你是,说某件事是可能的,他很可能就是对的,但是当他说某件事是不可能的时候,他很可能就是错的。我想问你,你错了什么?你改变了什么主意?如果有的话?
杨立昆:哦,我改变了很多事情的看法。一个例子是,在神经网络的早期,当我开始与杰夫·欣顿互动时,我在1987年至1988年期间和杰夫·欣顿一起做博士后,当时我对我们所谓的无监督学习没有任何兴趣。我认为这是定义不清的,我没有看到它的重点。杰夫认为这是最有趣的事情,他一直从事玻尔兹曼机的工作,他因此获得了诺贝尔奖。现在没有人再使用玻尔兹曼机了,但除此之外,这是非常有影响力的观点,主要是用于无监督学习。他有这样的愿景,即大部分学习必须是无监督的。他是对的,我基本上在2000年代初期才开始转向他。这花了很长时间。从80年代后期到2000年代初期,我才改变了对此的看法。然后,我开始倡导在2010年代使用更加明确的术语。但我显然弄错了这一点
主持人:杨立昆,嗨,Meta。我要如何说,非常感谢,并祝杨立昆周末愉快?
杨立昆:Merci beaucoup,祝您周末愉快。
主持人:谢谢。
主持人:这很棒,这真太棒了。
杨立昆:我需要告诉您一件事,因为您在谈论望远镜。我没有建造望远镜,但是我做天文摄影,作为业余爱好者。
主持人:我喜欢科学,但我喜欢拍照。
杨立昆:是的,我会拍出不错的照片,你知道。
主持人:我很想看看。也许,我在Twitter和Instagram上关注了你,所以也许你会发一些东西,那会很棒。
杨立昆:我以前发过一些照片。
主持人:是的,那太棒了。你知道,最初的天文摄影师是伽利略,他画出了他对宇宙的感受,而不仅仅是他所看到的东西。杨立昆,这非常精彩,我迫不及待想在下次我访问西蒙斯基金会、熨斗研究所时与您见面。很高兴与您见面。
杨立昆:好的,我很乐意,谢谢你。
来源:人工智能学家