摘要:在分享中,Eric Schmidt从宏观层面分享了他对于AI技术发展的理解,其中包括他与亨利·基辛格等人合著的《人工智能时代与人类未来》一书中的观点,涉及AI如何影响政治、军事和社会。Parekh和Schmidt还讨论了AI的能源需求、AI对生物医学创新的潜在
作者:MD
出品:明亮公司
!近日,谷歌前CEO Eric Schmidt与斯坦福研究院(SRI)首席执行官David Parakh在PARC Forum上进行了一次对话。
在分享中,Eric Schmidt从宏观层面分享了他对于AI技术发展的理解,其中包括他与亨利·基辛格等人合著的《人工智能时代与人类未来》一书中的观点,涉及AI如何影响政治、军事和社会。Parekh和Schmidt还讨论了AI的能源需求、AI对生物医学创新的潜在影响,以及当AI Agent遍布时世界的大致图景。
PARC即施乐(Xerox)帕洛奥图研究中心。2023年,PARC与SRI合并。PARC和SRI是包括AI在内的多项互联网和数字科技的发源地,被称为“第一代互联网”的阿帕网络(ARPANET)的首条信息就是由加州大学洛杉矶分校发送至SRI的,据David Parakh在对话开场中介绍,包括激光打印、以太网等多项技术也都起源于SRI和PARC。
左:David Parakh 右:Eric Schmidt(来源:SRI网站)
以下为「明亮公司」编译的访谈正文(有删节):
从施乐PARC到Scaling Laws
Eric:这里就是一切开始的地方。
David:我们刚才在大楼里转了一圈,Eric提到这是他的办公室所在位置,他还能清晰地记得。让我们从这里开始,Eric,你能否向大家讲述一些关于你在这里的经历?我知道这些故事可以讲一整天,但也许能尽量简短一些。
Eric:我会尽量简短。我想你们都知道,当你二十多岁时,好像那时候的一切都会深深地印在你的记忆里——洗手间在哪?地毯是什么颜色?老板是谁?老板真的很老,他有30岁,对吧?(笑)想想那时的自己,我当然也曾有过那个年纪。当时Jim Morris(注:卡耐基梅隆大学教授,曾任在加州大学伯克利分校和PARC任职)来到伯克利,我是那里的研究生,我的导师说,Eric很有趣。Jim喜欢我,于是给我安排了一个暑期工作,我最终在这里全职工作了几年。我曾参与Alto项目的工作(注:Alto施乐公司于1973年推出的计算机,被认为是一代个人电脑,也是首歌采用图形化用户界面的电脑,后来启发了乔布斯)。
……Xerox正在努力实现产品的工业化,当时还非常不成熟,他们开发了一个名为Star的产品,你们中的一些人可能参与过这个项目,但它的成功程度不如Alto。这座大楼就是Steve Jobs来参观Smalltalk演示的地方,据说他从中得到了灵感。
所以,当你使用Mac时,想想这座大楼;当你使用任何网络时,也想想这座大楼,这里就是发明以太网的地方。……
这座大楼的楼下曾经有一个非常早期的芯片制造工厂(Fab),可能已经没人记得。Carver Mead(注:超大规模集成电路设计方法学的奠基人之一,他也是“类脑智能”的首位提出者)就在大楼的这一侧,因为他们当时在这里,他们设计了VLSI(超大规模集成电路)的布局系统,这最终成为了今天全球万亿美元产业的布局系统。所以,如果你回顾这栋大楼50年的历史,你会看到我之前提到的那些创新。
……
David:我相信在座的有些人还记得那些经历。那么,你认为当时有什么“秘诀”使得这里如此特别,尤其是在人们合作的方式、创新的活力等方面,这些是推动创新的关键因素。
Eric:当时,关于如何管理创新以及如何管理技术人员的书籍还没有写出来。技术人员被视为与众不同的人。根据在座一些人的年龄,我猜你们可能也有过类似的体验,我们被视为与众不同的人,而且我们并没有被优化为其他任何目标,除了让事情能够正常工。……重要的是,要理解硅谷的社会政治环境是非常不同的。
……
David:说到这两本书,尤其是关于人工智能的书,你与基辛格合作,可能有些人如果没有读过这本书,“基辛格和这些内容有什么联系?”当时,你是在什么情况下与他合作的?为什么他对这些内容如此感兴趣?
Eric:基辛格博士,大家都知道他是谁。当时我们参加了一个名为Bilderberg的奇怪会议(即Bilderberg Meetings),这个会议聚集了一群老年人,庆祝跨大西洋联盟。我想这个联盟在特朗普时代已经不复存在了,但不管怎样,亨利(基辛格)是一个坚定的大西洋主义者。他从1954年就开始参加这个会议。他活了一百岁,所以他的经历非常丰富。他的第一个问题是:“谷歌有什么问题?为什么我不能改变搜索结果?”这是我经常被问到的问题。我说:“基辛格博士,我们做不到,它不是那样运作的。”他说:“它应该那样运作。”我说:“不行。”于是我们争论起来,我想:“这是一个很好的争论。”于是,我邀请他去谷歌,他在我们最初的园区里向员工发表演讲,说谷歌对人类文明构成了威胁。他用他那特有的德国口音说这句话,谷歌的员工们都很喜欢,因为它让大家觉得自己很重要。所以,多年来,我们开始作为朋友一起合作,研究国家安全等问题。
你知道,当你和一个如此聪明的人在一起时,你能积累很多知识。我现在发现自己在说话和思考时,经常会用到他曾经说过的话。他去年去世了。令人赞叹的是,他在去世前一周完成了《人工智能的未来与人类未来》这本书的写作,当时他卧病在床,无法起床,这本书对他来说非常重要。我们的第一本书是《人工智能时代》,它是在ChatGPT出现之前写的。当时我认为这是一本很好的书,但人们并不真正理解它,然后ChatGPT出现人们才真正理解了。这种“语言到语言”的转变是ChatGPT的显著成就。他甚至无法拼写“algorithm”(算法)这个词,也不会打字,他是更早一代的人。
……
David:当我阅读这本书时,我在反思自己的经历以及我的团队在80年代对早期专家系统的AI研究。然后是AI的寒冬,接着突然之间,对于大众来说,它就像一场巨大的浪潮。
Eric:记得专家系统从未奏效,我曾参与其中并失败了。它们在80年代就是行不通。而真正改变的是,我们所说的AI真正关注的是规模计算(scale computing)。上周,我和埃隆·马斯克谈到了Grok,我说:“Grok 2到Grok 3的变化如此之大,它现在非常出色,它是如何做到的?”他说:“因为我有最大的计算机集群用于单一模型训练。因为其他人都在分散使用资源。”这又是上周的一个数据点,表明规模计算的规模法则允许你做出这些惊人的事情。这就是为什么当你回顾Alto和以太网等技术的发展时,你会看到这种复合效应。
Scaling Laws何时结束?Dario(指Anthropic的创始人、CEO)写了一篇非常好的论文,你们都应该读一读,他在论文中提出了三种规模法则——第一种是你们都知道的深度学习法则。深度学习是ChatGPT的工作原理,这种规模法则表明,随着你增加更多的硬件和数据,你会得到更多涌现的行为。我们还没有发现它的极限,尽管每个人都说有极限,但我们还没有找到。记住,存在极限并不意味着它即将到来。
第二种与强化学习有关,强化学习本质上是AlphaGo所做的事情,它基本上是前、后、前、后地看,为不同的路径分配奖励函数。
第三种是测试时计算(Test-Time Compute),这是指在系统内部,当提供答案时,也在更新你的答案。他主张我认为这是正确的,即后两者才刚刚开始它们Scaling Laws。这意味着,硬件领域的朋友们,我们需要更多的硬件。而那些从事电力和能源工作的人,我们需要更多的能源。
让我举个例子,我最近在阿拉伯世界和印度待了很长时间。这些人足够疯狂,他们谈论的是建造1吉瓦-5吉瓦、甚至10吉瓦的数据中心。让我提醒你吉瓦有多大。最大的水坝大约是2吉瓦。一个核电站大约是1.5到2吉瓦。所以,我们正在讨论的是相当于两个核电站的数据中心。(注:截至2023年底,中国大陆在运核电机组55台,总装机容量为57吉瓦)这就是我们正在讨论的内容。顺便说一下,1吉瓦的数据中心内部大约有价值450亿-500亿美元的硬件。所以,如果你有十个这样的数据中心,那就是大约5000亿美元。
David:有了这种规模的扩展,我知道很多人正在研究算法和其他方法,以减少这些集群的能源需求,尤其是对于计算。但如果它变得更节能,人们可能会更多地使用它。那么,你认为在总体上,哪一种曲线会最终胜出?
Eric:有句老话叫 “格鲁夫给予,盖茨取走”(注:也称安迪-比尔定律,指新软件总将耗尽新硬件所提高的任何计算能力)。老一代会明白我在说什么,我指的是英特尔制造硬件,而微软利用所有这些硬件。这似乎总是及时到来。就像如果事情不起作用,更好的硬件就会出现,然后砰的一声,软件人员就会很高兴,然后他们又开始抱怨,他们需要更多的硬件。我认为这就是它的运作方式。我们当然正处于这个过程之中,但我们还没有结束。所以,最有可能的情况是,我们将最终拥有非常大的数据中心。是的,有一些改进。包括DeepSeek在内,这些深度学习算法的改进速度每年大约提高十倍。
DeepSeek所做的就是他们发明了一种全新的算法,用于某种被称为SFT的技术(监督微调),这是一个真正的发明。但因为他们以开源的形式发布,所以他们的所有竞争对手都在复制它……
David:我回想起本周有一篇文章提到2017年谷歌八位工程师发布的“Attention is All You Need”这篇开创性论文。在当时的学术会议它引起了很大的关注,但可能人们没有意识到它当时的影响以及它今天的影响。
Eric:当时我是谷歌的董事长,这件事发生的时候,我甚至没有注意到。这是我的错。但是这就是发生了,其中一位作者(即Noam Shazeer,Character.AI的创始人之一)后来回来了,25亿美元的价格(即收购Character.AI),这是一笔不错的交易,也是对于论文发布的不错回报。
David:他们中有一人的父亲曾在SRI工作……
Eric:而且,对于那些不知道的人来说,Transformer论文是一种新算法,它允许在训练过程中进行并行化(计算)。在此之前,技术被称为CNN(卷积神经网络)和RNN(循环神经网络),它们在计算上是正确的,但速度很慢。因此,Transformer允许在非常大的网络数据中心进行并行训练。随着Transformer的出现,很多硬件现在正在被构建,尤其是为Transformer架构量身定制的。谷歌的TPU现在已经发展到第五、第六代,它们在几乎所有指标上都比其他人的产品更快,正是因为它们被高度优化以适应Transformer。
所以,思考Transformer的一个方式是,它是否像CMOS一样持久?在我的硬件生涯中——我不是一个硬件专家,而是一个软件专家——我参与过许多与CMOS片无关的硬件项目,它们都失败了。根本原因是它的规模经济效应如此显著。如果你看看台积电现在正在做的3纳米,即将转向2纳米,超过一半的代工业务都在那里。所以,为了取代Transformer,你必须有一个类似的发现。我被推荐了很多其他项目,但它们还没有达到那个水平。人们正在尝试,但还没有成功。而且,要取代Transformer,并不一定会像50年前Carver Mead在这里嵌入它时那样确定。它可能根本不会被取代。它可能只是逐渐演变成某种类似的东西。
David:而且似乎也有机会开发定制模型,或者利用小型模型的力量。我想知道,下一个可能是什么?就像为特定领域量身定制硬件一样,为特定领域量身定制方法。
Eric:我一直相信这一点。让我给你讲讲利弊,然后你可以自己决定。我是一个开源的倡导者。我参与了开源项目,甚至在我年轻的时候,Unix还没有被命名为开源之前。所以,我知道开源是一种模式。目前顶级的模型基本上都是闭源的。Llama是开源权重的,但其他一切都是闭源的。不过,有一些强大的开源模型正在崛起,DeepSeek就是一个例子。……
如果你相信未来只有少数几个这样的大模型,而且我每隔六个月就会改变一次观点(笑),所以我不确定我现在处于哪个阶段。如果你相信这些少数几个非常昂贵的大模型,巨大的数据中心等等,在这种情况下,首先,(它们是可以被监管的。你可以确切地知道它们在哪里。总统可以命令军队接管数据中心……你知道,所有这些事情,因为这些东西从国家安全的角度来看非常强大。如果你相信开源模型在性能上接近,并且广泛可用,那么我们就处于一个非常不同的世界。
关于开放与闭源的问题,我发现,那些在闭源公司工作的人相信他们会赢,而那些在开源公司工作的人相信他们也会赢。但我认为一个不带偏见的观点会说,我们还不知道。闭源模型的最佳案例是这样的:当你将一个模型简化时,也就是说,你让它变得更小。相信它,它会失去韧性,变得更脆弱。所以奇怪的是,如果你专注于质量,你应该尝试获得尽可能大的模型,但最大的模型在太贵了。如果你确实构建了模型,并且它被称为“蒸馏“——你可以进行10000次针对大型模型的询问,你可以构建一些非常接近主要模型的东西,价格仅为1/150。它没那么强大,但它也能用。
David:刚才在这大家也讨论了在某个时候可供训练的数据没了,或者你训练的大部分数据都是生成的数据。
Eric:业内大家相信,我们已经得到了所有的数据。
David:但这也与你谈到的硬件发展速度有关,你知道,AI的发展不仅仅是因为更快的芯片。而是因为计算机架构和算法的进步,这些使得AI能够加速发展,速度远超以往。我想这可能是你在第一本书的后记中提到的内容之一。它的发展速度甚至比你在第一本书中预期的还要快。那么现在,很多讨论都是基于推测。不仅仅是“这个算法能做什么?它使用多少功率?它在哪里失效?它在哪里产生幻觉?”…但从根本上说,它如何改变人与计算机的互动?因为我在思考这样一个情况:这一切之所以可能,是因为人们开发了算法,开发了芯片,大量的人有了用于训练的标注数据。现在,人们被雇佣来基本上检查答案,确认这是否是最好的答案,以进行强化学习。但这种人与工具的关系迟早会改变,这种改变已经在发生。
Eric:让我再把观点再明确一下。50年前,在这座大楼里,所谓的窗口、图标、菜单和下拉界面(WIMP)被发明了。我知道,因为我使用过它。我没有发明它,我使用过它。这个WIMP界面已经50岁了,而你每天在个人电脑上使用它时,它的衍生品也在手机上。难道AI不应该能够产生足够的比特,以提供一个根据你的任务量身定制的按需界面吗?而且,整个关于光栅图形和固定边界框以及所有这些在这里被发明的东西,将完全被讲故事(storytelling)所取代。当你开始思考这一点时,你会意识到,这在个人的文化和语言等方面,是一种截然不同的体验。
人与AI,谁来制定规则?
David:在许多情况下,人们定义了算法的方法,计算机只是加速了这些算法。但随后谷歌所做的以及与之相关的一切,并不是训练算法,而是教会它如何学习。这就是它赢得围棋比赛以及做出AlphaFold的原因。那么,你如何看待人与计算机的互动?因为这些变化,可能会超出计算机仅仅作为一种工具的范畴,会变成一种扩展插件,帮助完成这些任务,一种不同类型的协作。
Eric:有一些场景被称为人工超级智能,但至少在可预见的未来,将是人类与计算机一起工作。这两本书从根本上探讨了与一个在某些领域比我们更聪明,而在其他领域又不如我们的智能一起工作,对人类身份意味着什么。我们共同相信,这个行业正在以比政府、社会、民间社会更快的速度推动这些技术发展。你可以看到,我可以向你保证,发明社交媒体的人,他们大多是来自旧金山的自由派人士,他们并没有预见到社交媒体在全球范围内导致的极化。因为社交媒体能让你找到你的朋友。
从2015年开始,这些科技公司开始在算法上发力。随后很多证据证明,青少年心理健康问题的增加(和社交媒体)有关联,尽管不能说这是直接原因,但至少是相关的。所以,再次强调,当我们20或30年前发明这些东西时,这些情况从未被考虑到。
亨利(基辛格)会用他那德国口音说:“这是因为你没有上过这些课程。”我说:“是的,我当时太忙了,忙着编程。”所以,他的观点,这也是这本书在某种程度上所探讨的,是解决方案不能让“科技男孩”们来做这些决定。抱歉,这是一个刻板印象,但这是事实。这需要一个协调的努力。
人们需要理解历史。你没有过上一帆风顺的生活,你理解人们是如何被伤害的,尤其是女性和儿童。所有这些都应该成为对话的一部分,什么是适当的护栏?AI的好处是如此之大,让我简单地列举一下。治愈所有疾病,我有一个团队决定在两年内定义所有人类可用药靶点。这是一件大事,对吧?然后制药行业将尝试针对这些靶点开发药物,我们会看看他们是否能做到。但至少他们是雄心勃勃的。这就像一个诺贝尔奖级别的成就。如果他们能做到,我们会看到的。在生物学中还有许多其他事情。生物学对AI来说就像数学对物理学一样,生物学如此复杂,你需要AI来解释它。
另一种说法是,对于生物学来说,序列预测(这正是ChatGPT所使用的深度学习算法)是可适用的。任何基于序列的系统,无论是物理学、数学还是生物学,都可以使用这些技术。这就是为什么,例如,AlphaFold等技术表现得如此出色。它是一种自然的序列预测应用。所以,还有气候变化、开发新的能源、材料、更好的碳捕获技术等,都依赖于这一点……
在负面影响方面……目前的核心问题是生物科技和网络。在网络方面,这是显而易见的,如果你进行足够的强化学习,你最终会找到所谓的零日漏洞(指存在但未知的安全漏洞)。如果有一个超级智能,它可以在很短的时间内找到所有这些漏洞。
在生物领域,事实证明,(AI)相对容易地修改现有的病毒,使各种解决方案和检测方法失效,然后它们可能会杀死很多人。谢天谢地,这种情况还没有发生。在行业里,人们对此表示担忧。人们不理解这一点,我们正在尽我们所能控制这些技术,防止它们被滥用。但是否需要一个悲剧事件来让人们真正理解这一点?切尔诺贝利式的事件可能会让人们感到害怕。不幸的是,我们可能需要经历这样的事件,才能让人们真正理解这种技术的潜在风险。我们正在尽我们所能防止这种情况发生,但是否需要一个重大事件来让人们意识到这种技术的潜在风险?我希望我们能够在重大事件发生之前,而不是之后,让人们意识到这种技术的潜在风险。
人们不理解这一点,我们正在尽我们所能控制这些技术,防止它们被滥用。但是否需要一个悲剧事件来让人们真正理解这一点?切尔诺贝利式的事件可能会让人们感到害怕。不幸的是,我们可能需要经历这样的事件,才能让人们真正理解这种技术的潜在风险。我们正在尽我们所能防止这种情况发生,但是否需要一个重大事件来让人们意识到这种技术的潜在风险?我希望我们能够在重大事件发生之前,而不是之后,让人们意识到这种技术的潜在风险。
……
我上周和Dan Hendrix发表了一篇关于超级智能的文章,……。行业普遍认为,不久的将来,我们不仅会有“人类科学家”,还会有“AI科学家”。比如,假设OpenAI有1000名员工,那么未来可能会有10万名AI科学家。假设这些人工智能科学家的水平和人类相当,甚至更好,那么创新的速度会怎样?我已经告诉你们,目前的创新速度每年增长10倍,这是令人难以置信的。那么,当有100万人工智能科学家加入时,假设创新速度会呈指数级增长、假设美国在这方面取得了领先,这是很有可能的。但真正的问题是,如何管理全球合作?
(一些大国)会发动先发制人的攻击。所以,这种逻辑是不稳定的,对世界秩序构成了威胁。亨利在与苏联人谈判时并没有遇到这样的问题。他过去会告诉他们我们有多少导弹,以及这些导弹的威力是多少。然后双方会讨论:“你有5000枚导弹,每枚威力是多少千吨,而我们有……”也许我们可以减少双方的数量。这种对话在具有网络效应的业务中是无法进行的。
……
David:你是如何应对有人篡改模型权重的问题的?这让我想起你之前提到的,这些模型从根本上来说,会让我们对“什么是真实”的概念产生怀疑。因为这些模型提供信息,而我们试图判断它是否比我们更聪明,是否拥有比我们更多的信息。在人们甚至没有意识到的情况下,他们的行为和思维方式可能会受到错误信息的影响。
Eric:我认为存在一个更广泛的问题,即虚假信息。这些系统将变得非常擅长撒谎。很多营销本质上就是欺骗或隐瞒事实,比如“车确实坏了,但我们没有告诉你”之类的事情。
在政治层面,这个问题更加严重。让我举一个军事安全的例子。美国有一项法律,编号是3000.09,它规定人类必须控制正在发生的事情。所以,每个人都会说:“没问题。”让我举个例子,假设有一枚高超音速导弹正朝你的船飞来,你是船长,你的iPad上弹出一个倒计时,上面写着:“你有30秒的时间按下这个按钮,否则你会死。”那么,有多少船长会行使独立判断权而不按下这个按钮呢?答案是零。那么,这对我们人类的判断力意味着什么?我认为,我们所有人都非常担心人类的自主性(被剥夺)。无论我们是否愿意承认,这种高效化的系统,如果用在计算网络中,最终会影响人类的自由,包括言论自由、行动自由、思想自由等等。而且,这种影响不一定是显而易见的,它可以是微妙的。比如,你会给你的孩子一个智能玩具熊,这个玩具熊会成为孩子最好的朋友,但如果这个玩具熊有偏见,你的孩子也会有这种偏见,而你作为父母甚至都不知道你的玩具熊有偏见。但这些非常微妙的社会问题,我们还没有解决。
David:你的例子也表明,我们通常会考虑自主系统甚至人工智能的界限,通过将某些决策保留给人类来实现。但当决策的时间周期比人类思考的速度更快时,你就不得不依赖于某种你可能不愿意赋予决策权的东西。
Eric:让我举个例子,假如未来可能发生了一场战争,(某国)攻击美国,美国进行反击,而另一大国则关闭了战争(shut the war down)。整个战争在不到一微秒的时间内就结束了。如何结束的?嘭嘭嘭、嘭嘭嘭,监视系统关闭了它。人类根本无法以如此快的速度做出反应。我认为所有技术革新,包括我们的行业,都是双刃剑。我相信我们都同意电话是一项伟大的发明。电话被犯罪分子使用的事实并不在计划之中,亚历山大·格拉汉姆·贝尔并没有说:“我正在为犯罪分子建造这个,他们需要在抢劫银行时能够互相通话”,并不是这么回事。
软件的这个小泡沫,是一个相当长的泡沫
David:我们已经涉及了很多内容,可能已经回答了一些问题,但肯定还有很多问题没有涉及。为什么我们不挑几个问题呢?
现场提问:……你是否对这一代学生如何使用人工智能进行学习感到担忧?更具体地说,华盛顿对一些机构的削减将如何影响未来受过教育的AI人才储备?
Eric:关于后者,这看起来是一个反科学的政权。科学是“美国例外主义”的基石。正是科学使我们能够建造产品、工具和产业,这些产业在战后的美国占据了主导地位。想想GPS、半导体,我提到的所有东西都是在美国建造的。因此,将间接费用率降低到15%,加上排斥外国学生,这对所有这些事情来说都是净负面的。我想我们都可以清楚地看到这一点。至于第一个问题的第一部分……(此处内容不完整,可能需要补充)
……
所以,亨利非常担心阅读。他是一个杰出的历史学家,他担心下一代学生,他们当然读了很多东西,但他们读的大多是短篇幅的内容,这不会构建出一种内在的心理叙事,而这种叙事是通过深入阅读书籍获得的。亨利写了22本书,所以很明显他有偏见。但我们可能可以同意,现在的交流比以往任何时候都要多,当然也比我在这里当学生时要多。然而,这种交流更短、更直接,可能没有那么多的铺垫和推理等。我并不想对教育行业如何解决这个问题发表意见,除了说教育行业在使用人工智能方面相当无能。那些计算机科学系的人,他们一直在构建教育系统,你知道那些教育系和大学做了什么吗?他们对10个人进行了测试,然后写了一篇论文。但为什么我们不能通过构建一个学习机器来解决这个问题,这个机器可以学习你的学习方式,并通过奖励信号进行优化,然后将其扩展到地球上的每一个人呢?这难道不是很容易吗?我们不是有很多教学活动吗?美国有300万所学校,数量巨大。
David:我想补充一点,这是一个很有趣的问题。如果你有一个计算器,你需要先知道如何计算加减乘除。问题是,人们不再理解这个概念,他们不知道如何判断答案是否正确——如果你可以使用人工智能来写作,你需要先知道如何写作。如果你可以使用它来编程,你仍然需要先知道如何写代码。所以,你可能不需要做机械的事情,但理解和推理是必不可少的。我们不能失去这种能力,因为我发现很多人只是依赖于从盒子里出来的答案,而没有能力去估计或判断这些答案是否有意义。
现场提问:财富不平等在美国已经增加了几十年。人工智能的繁荣和人工智能本身将如何改变这一点?顺便说一句,提问者认为,如果没有共同协商好,它只会加速这种不平等。
Eric:我同意这个问题的倾向。在网络市场中发生的事情是,少数赢家获得了大部分利润。你可以看看全球化对NBA球员的影响。这对他们来说是好事。但现在他们成为了全球超级巨星,他们赚的钱比如果他们只是普通的篮球运动员要多得多。
而我问行业的一个问题是,为什么你们不做一些工具,这些工具的目标是将普通人的工资提高10%?你可以做任何你想做的事情,但你的目标是将他们的工资提高10%。有很多例子可以证明,你可以通过自动化等方式将某人的工资提高10%。
我目前对就业问题并不担心,原因如下——我们没有足够的小孩。如果你看看韩国,生育率不到0.8,美国大概1.6,你需要2.1的生育率才能保持人口稳定。每个人都面临着这个问题,所以只要我们生产的后代数量减少,劳动人口与依赖劳动人口的人口比例就会对我们有利。提高这些人的效率,这就是我们解决老龄化社会生产力问题的方式。这就是为什么亚洲,尤其是中国和韩国,正在经历大规模自动化浪潮,他们在这方面做得很好。
现场提问:当新信息的规模超越已知的人类信息时,问题就来了——我们是不是在创造现实?
Eric:亨利(基辛格)对AlphaGo的第37手棋很感兴趣。围棋已经存在了2000多年,AlphaGo发明了一个在人类历史上从未被看到或至少没有被记录过的棋步,但它奏效了,并且帮助它赢得了比赛。他(基辛格)一直问我:“这是外星智能吗?这是什么?”
我回答他说,这只是算法推导出的特定路径。但这并不是他想要的答案。他想知道的是,为什么它会在那里出现,而人类却没有发现。所以,关于“真理”的问题,我在谷歌时整天都在回答这个问题,我的回答是:“我不知道,但我们知道如何对人们试图接近真理的尝试进行排名。”
我认为,科学之所以有效,是因为它本质上依赖于可证伪性。一旦有人提出一个科学结果,每个人都会试图去证伪它。如果它在被多次攻击后仍然站得住脚,那么它就被认为是“真理”。我记得在学习过爱因斯坦的相对论时,认为这是最愚蠢的事情。于是我问我的物理系研究生朋友,他告诉我:“我每天都用它,它一直有效。” 所以,换句话说,爱因斯坦是对的,而我是错的。所以,从科学的角度来看,我们理解的“真理”是通过可重复性和可证伪性来定义的。而关于言论的问题,我们正处在一个人们逐渐失去对“真理”和“生活中最重要的事情”(如健康、家庭、周围的人、安全、直接环境等)的感知能力的时代。这种感知能力的丧失被AI算法进一步加剧了,因为AI算法通过最大化愤怒来最大化收入。
现场提问:是否存在另一种AI货币化的模式,而不是直接提到愤怒,而是涉及隐私和信任等问题?
Eric:这又是一个很棒的问题。数字广告行业目前主要由谷歌和Meta主导。从百分比来看,谷歌占得更多,但两者加起来几乎占据了整个市场。这种模式非常高效、高度优化,并且非常稳定,客户和股东都很满意。到目前为止,我们还没有想出一种比社交媒体更好的货币化模式。
人们做过尝试,我的直觉可能是“更直接”的关系。例如,如果你看看网红,他们在带货。只要算法能够将网红直接与消费者连接起来,并且他们能够实现货币化,这可能是一个显著的进步。如果你看看TikTok,TikTok在美国被贬低,因为我们这些年纪大的人不用它。但你的18岁孩子对TikTok上瘾,他们之所以对它上瘾,是因为它使用了一种不同的算法。它不是一种社交网络算法,而是一种基于喜好和兴趣的算法。如果你因为某些原因改变了兴趣,它会立即切换到你的下一组兴趣,并使用一组复杂的元数据。所以,对我来说,TikTok的模型看起来是计算机科学中最令人上瘾的模型。这个模型是在中国开发的,你需要想出一种与之相匹配的货币化模式,而这种模式最终可能会占据主导地位。
现场提问:你对企业家和初创公司的创始人有什么建议?他们可能今天在做一件事,而明天整个世界就变了。
Eric:这些都不是新的现象,只是发生得更快,而且人们的表达更直接。我已经经历了五次技术浪潮、五次创业浪潮、五次繁荣与萧条的周期。还记得Vine吗?回到2000年,还记得Pets.com吗?人们没有记忆去回忆过去的悲剧。我在90年代末在这个礼堂做过一次演讲,我最近又看了一遍。当时讨论的内容已经被遗忘了,包括我自己。我们前进的速度太快了。今天作为一名创业者,你可能更容易也更困难。
当我创业的时候,你必须自己建造数据中心,你必须自己建造计算机,你必须安排自己的电力供应……你必须为人们提供计算机,我们不得不铺设网络……等等。今天,旧金山和其他地方到处都是这些使用WiFi网络的办公室,一切都是远程的、基于云的计算,这才是真正的加速器,而AI的应用现在将成为主流,这将主导一段时间。所以,进入的门槛非常低,现在是一个比以往任何时候都更好的时代。坏消息是,鉴于这个系统中的沉淀资金规模。这你必须为那些没有经过验证的人支付过高的价格,他们都很傲慢,你知道……如果你解雇他们,他们可以在其他地方立即找到一份更好或同等的工作。所以,你也不能这么做。
我们现在的这个小泡沫看起来是一个相当长的泡沫。原因在于,如果你有10到20个像我这样的人,并将他们应用到任何现有业务中,你可以将收入或利润提高10%、20%、50%。那么,这10个人或20%的价值是多少?它相当于数十亿美元的一部分。所以,再次强调,作为一名自命不凡的计算机科学家和软件工程师,我们是值得的,不好意思,我们值得,因为当你将我们投入到这些场景中时,我们可以利用网络计算、AI和规模扩展,真正地正向影响你的业务。
还有一个没有被讨论的问题,因为每个人都专注于ChatGPT等话题,那就是“代理革命”(Agentic Revolution)。代理(Agents)本质上是执行任务的东西,它们通常用自然语言相互交流。
我举个例子,我喜欢帕洛阿尔托,我想在波托拉谷(Portola Valley)买一块地。那里有几块地可供出售。我有一个代理帮我寻找土地,我有一个代理查看建筑规范,我有一个代理帮我找建筑师,我有一个代理做初步设计并交给建筑师,我有一个代理检查建筑规范是否合法,你是否会喜欢它,然后我批准它。我有一个代理选择承包商,建造房子,然后我有一个代理在承包商工作做得不好时起诉他。(笑)……为什么我举这个有点讽刺的例子呢?这就是每个业务的工作流,这是SRI的流程,也是我所做的一切的流程,这是大学的流程,这是军队的流程,这是政府的流程……当你理解我刚才所说的,它将改变每一个业务流程,每一个机构,至少在发达国家是这样。那么,你就会明白为什么人们对此如此疯狂。
David:……(在书中)你和基辛格以及其他人谈到,除了硅和碳之外,还有精神层面的东西,我们需要以某种方式将社会的价值观叠加在这一切之上。
Eric:一个建议是,你希望为你的一生感到自豪——有些人对自己的财富感到自豪,但我认为,大多数人会认为有更高的目标,无论是宗教上的,还是仅仅让世界变得更美好。如果你看看关于幸福的研究,幸福与拥有朋友和助人高度相关。理解这一点的一种方式是,我们需要将这个行业如今日的激烈竞争——当然我们从竞争中受益,但我们需要有一些更高层次的目标,建立一个更好、更公平的社会。一个不会像现在这样对待弱势群体的社会。社会过去也面临过这些问题,在美国,我们有Bill of Rights的概念,Bill of Rights不是为了多数人,而是为了防止多数人伤害少数群体。我认为这种结构很有趣。Anthropic公司实际上为他们的模型制定了一部“宪法”,作为他们试图控制模型行为的一种尝试,这非常有趣,因为它包含了这些价值观。我的猜测是,这些基础模型,如今日这般原始,它们知道一切,包括所有不好的东西。最终,它们将拥有某种“宪法”或治理系统,反映这种人类价值观、人类利益和权力的平衡。
……
来源:明亮公司主编