深度|a16z对谈SemiAnalysis创始人:AI真正的天花板不是芯片,而是电网,美国缺电,而中国缺效率

B站影视 电影资讯 2025-08-30 15:31 2

摘要:这期对话把火力对准了一个不体面的真相:更聪明的“路由”和更苛刻的“成本”正重写 AI 商业化的脚本。嘉宾阵容极具冲突感——半导体观察者 Dylan Patel,前谷歌云/企业家 Guido Appenzeller,风投人 Erin Price-Wright,与

图片来源:a16z

这期对话把火力对准了一个不体面的真相:更聪明的“路由”和更苛刻的“成本”正重写 AI 商业化的脚本。嘉宾阵容极具冲突感——半导体观察者 Dylan Patel,前谷歌云/企业家 Guido Appenzeller,风投人 Erin Price-Wright,与主持人 Erik Torenberg 一起,从 GPT-5 的“没加大算力却更会分配算力”谈起,直指 OpenAI 把免费用户与重度用户放在同一条计价胶带上滚动切割的现实逻辑。

Dylan 的核心判断很刺耳:GPT-5 的“突破”不在参数,而在自动路由与思考时长管理——把高价值查询导向最贵的推理链,把低价值查询甩给轻模型;更激进的是,把路由直接对接交易与佣金,让“免费”第一次真正具备现金流。这个观点等于宣告模型竞赛从“智力比拼”转向“单位 token 的经济学”,从此谁能在不牺牲体验的前提下把每一秒思考削到恰好够用,谁就赢。

Guido 顺势把矛头指向行业定价与开源生态:当重度编程用户把订阅“薅到负毛利”,当 Claude、Cursor 等在开发者侧跑赢传统巨头,固定费率与按量计费的拉扯会成为新战场。Erin 则泼下一盆冷水:企业真正要的是成本可预测性而非“灵活计量”,这意味着产品与路由必须围绕“可控账单”设计,而不是把风险转嫁给客户。

镜头拉远到供给端,讨论更具火药味。Dylan 断言 NVIDIA 的护城河不仅是 CUDA,而是“软硬件—供应链—数据中心周转”三位一体;定制芯片想击穿壁垒,必须在特定负载上拿出 5 倍效率且赌对未来模型形态。与此同时,美国电力与上架周期成了真正瓶颈,中国则以“电力相对充裕但单位资本效率偏低”形成对照——算力地缘政治正在把 AI 基建推向国家级资本博弈。

这场对话最后落回一个不舒服的结论:价值创造远超价值捕获。从购物代理到法律、出行预订,谁把“高价值意图”路由到可抽佣的闭环,谁就能把模型红利变成现金流;反之,再聪明的模型也只是在烧钱发光。若把这次发布视为行业分水岭,它更像一次“会计学的胜利”——AI 不再只比智商,而是比单次回答背后的资本开销与变现半径

以下是全文翻译。

智能路由与成本革命:AI商业化的新分水岭

Erik Torenberg: 或许我们可以从GPT-5开始讨论。您曾表示对该研究感到失望,能否具体说明您的评价?您原本期待看到哪些能力突破?或者谈谈整体看法。

Dylan Patel: 这实际上取决于用户层级差异。对于此前每月支付20美元或200美元订阅费用的用户,升级至GPT-5后将无法继续使用4.5版本——就某些特定任务而言,4.5仍然是更优秀的预训练模型。同时也会失去o3模型的访问权限,该模型平均思考时长约为30秒,而GPT-5即使在启用思考模式下,平均思考时间也仅5至10秒。这种现象值得关注。本质上,GPT-5并未显著增加单次计算消耗。从基础性能来看,模型确实有所提升,4.0到5.0的进步幅度相当明显。但当我们审视智能增长曲线时,核心规律在于:计算资源投入量与模型性能呈正相关。这体现为两种途径:要么扩大模型规模(GPT-5显然未采用此方案,其参数量基本保持稳定),要么增加思考时长。

需要指出的是,OpenAI早期思考模型(如初代o1、o3版本)存在过度思考问题,会消耗大量token却收效甚微。相比之下,Anthropic的思考模型即使在启用思考模式下,所需时长也显著缩短,却能获得相当或更优的结果。因此OpenAI本次进行了大量优化——例如我曾向o3提问"猪肉属于红肉还是白肉",模型竟思考48秒,这种本应直接回答的问题显然不需要深度推理。GPT-5的改进体现在两方面:即使用户手动选择思考模式,计算时长也已大幅压缩;更重要的是引入了自动路由机制,系统能智能判断应调用标准模型、高频用户专属模型(若触及速率限制)还是思考模型,并动态分配计算资源。总体而言,当前高端用户查询所需的平均计算消耗较之前有所降低。

Guido Appenzeller:但更值得关注的是,OpenAI现在可以自主控制分配给用户的计算资源量。如果处于高负载情况,他们或许会通过调整路由参数来降低计算分配——虽然我们无从得知其幕后具体实现。当前存在一种流行观点(注:该观点并不符合事实)认为,OpenAI只是将三个主要模型与若干小模型组合,前置路由系统后以混合定价模式提供更低廉的服务。这种说法确实反映了部分现实:成本控制已成为重要考量,而他们找到了精准调控的计算分配方案。

Dylan Patel:OpenAI确实透露其基础设施容量已实现大幅扩容。就个人使用习惯而言,我原本持续使用o3或4.5模型,现在则必须使用自动模式——该系统有时会分配相当于o3级别的思考模型,有时却仅提供基础模型,后者体验明显欠佳。但对免费用户而言,这种机制具有重要价值。此前免费用户几乎从未获得思考模型的使用权限,他们通常直接打开网站进行查询。现在通过路由系统,其查询有时会被导向高性能模型,从而获得更优质的服务。同时OpenAI也获得了弹性降级能力,可根据需要合理调整免费用户的资源分配。

路由机制实际上展现了OpenAI的商业化战略路径。对比行业现状,Anthropic完全专注于B2B领域(API、编程工具等);而OpenAI虽拥有Codex和API业务,但其主要收入来源仍是消费者订阅服务。然而免费用户的变现始终是核心挑战:传统消费应用通过广告实现免费用户变现,但这种方式与AI助手的本质存在根本冲突——既不能通过植入广告损害用户体验,横幅广告在AI界面中也效果欠佳。通过路由系统,OpenAI正在突破免费用户变现的困局。以新推出的购物代理应用(疑似与Shopify合作)为例:当用户提出低价值查询(如"天空为什么是蓝色的"),系统可将其路由至轻量级模型;而当用户提出高价值需求(如"寻找本地最佳醉驾辩护律师"),未来系统将能联系区域内律师,分析胜诉率与法庭记录等数据,最终为用户预订最佳法律服务。这种基于查询价值的智能路由,正是实现免费用户变现的关键路径。

Guido Appenzeller:或许可以通过抽取佣金的方式实现。

Dylan Patel:确实如此,平台必然需要抽取分成。但这种变现方式远比传统模式更优越。以Etsy为例,目前其10%的流量来自聊天界面,而OpenAI却未能从中获利。这种状况即将改变——尽管亚马逊封锁了聊天入口,但通过购物决策(无论是机票预订还是商品搜索)实现盈利的路径已经清晰。现在面对免费用户时,系统可以根据查询价值进行智能分配:对于高价值场景(如购物咨询),会启用最佳模型甚至代理系统,不惜投入巨额计算资源,因为这类查询能带来收益;而对于低价值查询(如作业辅导),则分配适当级别的模型以控制成本。这正是路由系统最关键的价值——OpenAI终于找到了免费用户的有效变现路径。

Guido Appenzeller:这个视角非常具有启发性。我认为这是首次出现以成本控制为核心亮点的模型发布。以往行业关注点始终集中在"谁的模型最智能"或"谁的MLOU分数最高"上。而现在,那些每天使用模型进行八小时编程的用户突然发现,若采用大上下文窗口搭配最高配置的模型,每月会产生数千美元的成本。成本因素变得至关重要。这意味着如果我们正处于成本与性能的帕累托前沿上,衡量模型竞争力的新标准是否不再局限于单一成本指标?这是我们正在见证的转变吗?

Dylan Patel:确实如此。OpenAI明确表示为大用量用户提升了两倍的速率限制,并显著增加了本次发布的服务token数量——这实质上宣告了这是一次以经济性为核心的版本发布。

Guido Appenzeller:这是否也意味着token成本已经降低?

Dylan Patel:确实如此。最具启示性的案例发生在编程领域:Cursor不得不取消无限制使用Claude代码的权益。最初他们推出包含无限制额度的高价方案,随后改为周度速率限制,现在甚至实施基于小时的频率管控。我在Twitter上看到最令人震惊的案例是:有用户为适应这种限制改变了睡眠周期——模仿海湾水手的作息模式,就像单人航海时选择在安全区域进行能量小睡以保持警觉那样调整使用节奏。但由于Anthropic实施了基于小时而非周度的速率限制,用户无法进行连续不间断的使用。该用户因此采取分段睡眠模式——每天多次短时休息,以最大化利用限额。Reddit上甚至出现了使用量排行榜,用户们竞相展示订阅范围内的token消耗量,目前最高记录保持者每月消耗金额达三万美元。

Guido Appenzeller:那么我是否可以与印度开发者结对编程:我使用白天的额度,他使用夜间额度,共同最大化账户配额的使用效率?这就是未来的发展趋势吗?

Dylan Patel:显然用户正在利用负毛利率的订阅方案获利。虽然Anthropic可能从我的订阅中实现正毛利率(因为我的编码使用量不高),但确实存在大量用户让企业承受亏损的情况。

Guido Appenzeller:这越来越指向按使用量计价的模式。当某种基础资源(在某种程度上被转售)占据商品成本如此大的比重时,就必须转向基于实际用量的定价体系。

Dylan Patel:您认为这些编程产品的客户捕获能力和用户粘性如何?我很好奇您的观点——当开发者集成某个CLI产品或适应特定IDE后,这种粘性究竟有多强?用户会轻易切换平台吗?

Guido Appenzeller:这是一个价值十亿美元的问题——甚至可说是保守估计。Andrew McCarthy曾展示过一张极具启发性的幻灯片:当今构建智能体系统的本质在于闭环设计。该循环的一半是模型思考过程,另一半则是用户验证代理行为——检查执行结果是否正确、提供反馈并引导其朝向正确方向。因为系统不可能无限运行,最终仍需人工干预校正。这个闭环中,模型提供商负责构建最佳模型,而另一半核心竞争力在于设计最优用户界面以获取有效反馈。我认为这方面存在显著价值,因此必然产生相当程度的用户粘性。以代码编辑为例:如何最直观展示代码变更?如何清晰呈现修改影响范围及涉及文件?如何针对简单修改提供快速反馈,对复杂变更提供详细分析?有些工具甚至能自动生成操作流程图。这将成为未来的竞争焦点,也必然带来用户粘性。至于具体粘性强度——这确实是个值得深入探讨的卓越问题。

Dylan Patel:按照这个逻辑,企业应该通过订阅制来锁定用户,而非转向按量计费模式?

Erin Price-Wright:我认为恰恰是客户不愿意接受按量计费——因为这种模式存在成本失控风险。客户真正需要的是可预测的成本保障,他们宁愿承诺较高额度的预付支出以避免按量计费的不确定性。真正推崇按量计费模式的,其实是模型提供商自身。

Guido Appenzeller:对消费者市场而言,完全规避按量计价模式确实非常困难,因为使用量的差异极其巨大。以我们偶尔编程的用户与全职开发者相比,使用量可能相差二十倍以上,这种差异会带来巨大的成本波动。对企业客户则不同,我们可以预见更多固定费率方案,因为企业内部的用量更容易实现均衡化。

Erin Price-Wright:当企业拥有全天候使用系统的开发团队时,基本上可以预估其日常编程时长和使用模式。这种可预测性为固定费率定价提供了基础。

Guido Appenzeller:用量配额确实更难掌控。在结束OpenAI话题前,我想提出一个宏观问题:如果Sam Altman此刻坐在这里说"Dylan,只要能让OpenAI更具价值,我愿意采纳你的任何建议",你会给出什么方案?

Dylan Patel:我会建议立即推出信用卡绑定功能——允许用户向ChatGPT输入信用卡信息,并同意对其所有代理行为抽取固定比例佣金。随后推出智能购物产品:众所周知Anthropic、OpenAI及其他实验室正在构建基于亚马逊、Shopify、Etsy等电商平台以及航空公司网站的强化学习环境。下一步应该实现日历集成:当用户提出"周四飞往某地"的需求时,系统能自动协调会议时间避免冲突。

掌握用户对靠窗或过道座位的偏好等个性化数据,在此基础上收取交易佣金。该功能一经推出必将带来巨大收益——虽然他们可能已在开发此类功能,但我更想了解他的战略思考。过去六个月里他对广告的态度发生显著转变:从最初坚决反对到现在表示可能存在不影响用户体验的变现方式。我认为这正是免费用户的理想 monetization 路径。这大概就是我会提出的建议——同时围绕该方向展开系列深度探讨。

NVIDIA的增长曲线与AI算力的未来图景

Erik Torenberg:现在我想将话题转向NVIDIA。该公司今年表现极为强劲,股价涨幅接近70%。您认为其未来可能的发展路径有哪些?对此您如何展望?

Dylan Patel:这取决于对持续增长前景的判断深度。不过我们确实拥有独特的观察视角——能够清晰看到众多企业(特别是编程领域公司,还包括其他应用领域)的收入增速。需求端显然正在加速增长。再看训练侧:竞赛已经白热化。Meta和谷歌都在大幅增加投入。仅以OpenAI和Anthropic为例,这两家公司今年从谷歌、Amazon for Anthropic以及微软、CoreWeave、Oracle for OpenAI获取的计算资源,就占到芯片总量的30%。但剩下的70%流向何方?其中三分之一用于广告业务(包括字节跳动、Meta等广告厂商)。那么剩余三分之一的芯片去向?主要被经济模式尚不明确的供应商消耗——这些企业能否持续增长仍存疑问,他们需要不断进行更大规模的融资。这种情况下的发展轨迹值得深思。

以编程领域为例:Qwen Coder 3模型若通过本地部署或云端推理库运行,成本其实极低。因此核心问题在于:增长动能还能持续多久?第一梯队的OpenAI和Anthropic实验室支出确实在飙升;第二梯队的广告业务也会增长(虽然不会爆发式增长),但生成式AI广告可能迎来拐点——Meta已进行大量实验,个性化广告展示确实存在巨大潜力:当广告人物与用户高度相似且略趋完美时,更容易激发购买欲望。

Guido Appenzeller:这个扩展路径非常有趣。关键在于其规模化的潜力:我们究竟能创造多少价值?这些价值是否足以支撑长期增长?以AI软件开发为例,目前数据显示,开发者生产率能轻松提升15%。许多传统企业部署GitHub Copilot后都达到这一水平。当然我们还能实现更高提升。

Dylan Patel:这个数据可能低估了实际效果。根据我们的观察,效率提升幅度远高于此。

Guido Appenzeller:根据我对大量传统企业的调研,标准化的GitHub Copilot部署通常带来约15%的效率提升。但实际上我们完全能实现更高水平。

Dylan Patel:但您是否清楚GitHub Copilot的实际表现?观察其年度经常性收入图表会发现一个有趣现象:Claude Code在三个月内就实现了反超,Cursor更是轻松超越。甚至像Replit和Windsurf/Cognition这类公司也即将赶超——这背后的发展趋势值得深思。

Guido Appenzeller:假设我们能将开发效率提升至100%,这意味着开发者生产率可实现翻倍。全球约3000万开发者,按每人创造10万美元附加值计算(美国偏低但全球平均值偏高),总价值将达3万亿美元。因此我们正在构建的技术理论上可带来3万亿美元的GDP增值。这些价值最终将体现在GPU投入上,因为这是主要成本要素。

Erin Price-Wright:这还仅是代码模型的贡献,未计入其他应用场景。

Guido Appenzeller:至少从理论层面看,价值创造确实具备持续增长的基础。但如何转化为产业效益则复杂得多。

Dylan Patel:AI的价值创造已经显现。最初所谓的"3000亿难题"现已升级为"6000亿难题"——红杉资本很快会提出1.8万亿美元的版本。这些数字虽有一定依据,但忽略了关键点:当前基础设施投入对应的是五年而非一年的收益周期,且收益曲线呈指数增长而非平缓直线。核心在于:AI创造的价值已远超投入成本,但价值捕获机制存在根本性缺陷。我确信OpenAI通过ChatGPT创造的价值中,其实际捕获率不足10%。这个现象同样适用于Anthropic、Cursor等其他企业。

以我们内部运作为例:仅用四名开发者就实现了自动化监管审查——通过Gemini API分析每个数据中心的许可文件与卫星影像,自动识别发电机型号、冷却塔配置、施工进度和变电站状态。虽然我们在Gemini API上的投入极低,但通过数据销售和咨询获得的收益却非常可观。而提供这些技术的公司反而几乎未能分享收益。随着GPT-5等先进模型和开源技术的持续发展,推理成本将不断下降,但这些企业的价值捕获会越来越困难——目前他们仅能获得50%甚至更低的推理毛利率。价值捕获难题已经远远超过价值创造本身。

Guido Appenzeller:简而言之,您认为行业正在面临商品化趋势,导致价值捕获能力下降,因此需要对GPU投入规模保持更谨慎的预期?

Dylan Patel:并非如此。我认为仍然存在显著提升价值捕获的空间——正如之前提到的广告业务就是重要的价值拐点。

Erin Price-Wright:但这种突破必须发生在规模扩张之前。我们需要先实现价值捕获模式的创新,才能支撑后续的大规模投入。

Dylan Patel:实际情况是仍有大量资本尚未投入。超大规模云服务商的资本支出明年仍能增长20-30%;而CoreWeave和Oracle这类通过资本市场融资的企业,其资本支出增幅更可远超这个比例。进一步分析:全球最大基础设施基金(如Brookfield和Blackstone)正将目光聚焦AI基础设施投资。至于主权财富基金——无论是G42、挪威央行投资局还是新加坡GIC——这些机构对AI领域的投资才刚刚起步。因此我认为,未来还存在巨大的资本支出空间,且这些投资初期并不完全受经济回报驱动。当前经济动机驱动的资本支出确有增长上限,但更多投资源于信念驱动:投资者相信未来必将获得回报,尽管目前还无法通过电子表格精确论证其商业可行性。

Erik Torenberg:定制芯片对NVIDIA的威胁有多大?

Dylan Patel:这是最关键的问题。观察谷歌、亚马逊、Meta的订单趋势:虽然微软的定制芯片表现欠佳,但其他三家公司去年已大幅增加自主芯片订单。亚马逊正在生产数百万颗Tranium芯片,谷歌的TPU产量也达到百万级——且TPU利用率显然已达到100%。虽然Tranium目前尚未达到理想水平,但亚马逊与Anthropic终将攻克技术难题。我认为这对NVIDIA构成最大威胁:一旦行业掌握更广泛的定制芯片应用技术,市场格局将发生根本性转变。若AI产业保持高度集中,定制芯片将占据优势——这还未计入OpenAI自研芯片团队的潜在影响。反之若产业走向分散化,则情况可能完全不同。

Guido Appenzeller:谷歌的TPU已具备与NVIDIA竞争的实力,理论上完全可以在公开市场销售。如今NVIDIA市值甚至超过谷歌——难道谷歌不应该向全行业出售芯片吗?这理论上应该能帮助他们获得更高的市场估值。

Dylan Patel:我完全认同这个观点。据我所知谷歌内部已在讨论此事,但这需要实现三重变革:企业文化重构、谷歌云运营模式重组,以及TPU团队与软件团队(包括Jack软件团队和XLA编译器团队)的协同机制改革。虽然需要经历剧烈调整过程,但我坚信谷歌应该直接对外销售TPU芯片实体,而不仅限于租赁算力服务。

Guido Appenzeller:颇具讽刺意味的是,理论上这项副业可能比核心业务具有更高的企业价值潜力——尤其是在搜索业务作为核心业务逐渐衰落的背景下。

Dylan Patel:确实如此。但如果询问Sergei的观点,他必然会坚持认为Gemini的价值将远超芯片销售或云服务,只是当前价值尚未完全显现。关于NVIDIA的价值评估本质上取决于产业集中度:若AI客户群体高度集中,NVIDIA很难成为全球最具价值的企业;反之若产业持续分散化(开源模型性能持续提升、部署成本不断降低的趋势已初见端倪),那么NVIDIA很可能长期保持全球最高市值的地位。

Guido Appenzeller:从历史经验看,任天堂的软件生态曾席卷全球市场。早期网络时代,思科也曾一度成为全球最具价值的企业,但最终被基于其基础设施构建服务的谷歌、亚马逊和Meta等公司超越。

Dylan Patel:这正是NVIDIA大力开发软件库的原因——他们试图通过将推理环节商品化来维持优势。据我所知,贵机构甚至没有投资任何推理API提供商吧?

Guido Appenzeller:我们投资了各类模型提供商。

Dylan Patel:模型提供商与纯API服务商存在本质区别。我记得曾与贵团队讨论过为何不投资Together或Fireworks这类纯API提供商——当时的观点是认为单纯提供模型服务而不参与模型研发将会被商品化。

Guido Appenzeller:我们在Stable Diffusion生态中投资了Foul等企业。

Dylan Patel:但那边的商业模式与LLM领域有所不同。

Guido Appenzeller:确实,Stable Diffusion领域的公司更倾向于构建复合型模型,这与LLM厂商的技术路径存在显著差异。

Dylan Patel:但贵机构没有投资Base10这类API服务商,根据基础设施团队的观点,你们认为该领域将被商品化——由于NVIDIA推动的VLM、伯克利开源的SGLANG等软件生态日益成熟,并获得多方支持,这种商品化趋势将使纯API提供商的价值大幅缩水。这个判断与当前讨论直接相关:为什么选择这样的投资策略?

Guido Appenzeller:我们换个话题:如何看待芯片初创企业?大量资本正涌入这个领域,虽然缺乏精确数据,但投资规模可能已达数十亿美元。

Dylan Patel:确实如此。以Etched和Rivos为代表的芯片初创企业令人印象深刻——这些公司甚至尚未发布产品就获得了巨额融资。Maddox等企业也面临类似情况。与传统半导体行业不同(以往企业至少需要先推出芯片才能获得大额融资),如今Etched和Rivos在未公开推出任何芯片的情况下就筹集了大量资金。这种现象既反映了芯片研发(尤其是包含众多复杂模块的加速器)所需的巨额资本投入,也揭示了当前市场的特殊性:过去几年间涌现出至少十余家新型AI加速器公司,这种融资环境在半导体行业发展史上前所未有。

Guido Appenzeller:我认为还有更多因素需要考虑。

Dylan Patel:确实如此。此外还有持续获得融资的传统玩家:Grok、Cerebris、Zamanova、Tenstorrent等企业,以及被SoftBank收购的Graphcore——SoftBank正在向这个领域持续注资。大量资本正试图挑战NVIDIA的垄断地位,但实际面临巨大挑战:如何真正超越NVIDIA?超大规模云服务商的优势在于能基本复刻NVIDIA的技术路径。

Guido Appenzeller:他们拥有自身这个天然客户群体,这是巨大优势。

Dylan Patel:而且可以通过供应链优势取胜——例如采用成本更低的供应商。

Guido Appenzeller:这本质上是一场利润率压缩的竞赛。

Dylan Patel:确实。对于特定负载(例如Meta的推荐系统),企业可以通过专项优化获得优势。但绝大多数场景下,竞争对手实际瞄准的是相同工作负载——他们试图通过简化供应链、内部化生产来压缩利润率。然而对其他芯片公司而言,由于缺乏自有客户群体,他们必须面对双重挑战:要么选择定制芯片供应商(对方必然要抽取利润,导致自身售价受压),要么尝试完全自研(但这意味着需要承担芯片设计、知识产权开发、芯片与服务器供应链管理等全方位工作,团队规模要求极高)。最终结果是:NVIDIA能维持75%的毛利率,AMD的GPU仅能实现50%毛利率——尽管AMD拥有顶尖工程技术,但仍需使用更多晶圆面积和内存才能达到同等性能,最终不得不以更低价格销售导致利润空间被压缩。

Guido Appenzeller:这个分析很有说服力。纵观历史,新进入者通常不会通过边际改进获胜(尽管偶尔发生),而是依靠颠覆性技术实现突破——采用全新方法路径。在当前领域是否存在这种可能性?或许我的说法过于简化,但Transformer模型之所以胜出,部分原因正是其在GPU上的运行效率极高:虽然循环神经网络表现相近,但在GPU上的运行效率极其低下。这是否意味着我们为特定架构选择了模型,导致现在难以诞生真正突破性的新架构?

Dylan Patel:这本质上是个软硬件协同设计问题。虽然神经形态计算备受瞩目且理论能效极高,但既缺乏硬件生态也缺少软件支持——需要数以万计的顶尖AI人才共同投入才可能验证其价值,涉及硬件、软件和模型三个层面的突破。观察Grok、Cerebris、Samanova等企业,其芯片设计都过度契合了开发时的主流模型架构。这些公司选择了特定的技术路线(例如增加片上内存),而NVIDIA则采取了截然不同的策略。

Guido Appenzeller:至少速度优势明显?

Dylan Patel:更准确地说,相比NVIDIA芯片的SRAM内存容量,这些企业的配置要高出数个量级。

Guido Appenzeller:他们选择SRAM而非DRAM的方案,但通常DRAM容量会更少——这里存在明显的技术权衡。

Dylan Patel:确实如此——DRAM更少,SRAM更多,但片上SRAM的增加必然挤占计算单元空间,这最终导致其方案失效。因为模型规模持续扩大,这些企业陷入了一种悖论:他们押注的技术方向本身更优(例如Cerebris运行特定模型的能力确实超越NVIDIA,Grok或特斯拉Dojo在特定任务上也优于NVIDIA芯片),但当视觉任务普遍转向Vision Transformer时,由于模型规模膨胀, specialized优化反而成为制约。

新一代AI加速器公司试图为Transformer架构优化,但设计之初基于的假设(隐藏维度8K、特定批量大小和序列长度)与实际情况脱节。实验室实际运行的模型维度更小,需要的是大量小型矩阵乘法而非巨型单层矩阵运算。这使得专为假设场景设计的芯片实际效率低下。软件生态正持续围绕NVIDIA硬件最优解演进——从DeepSeek、阿里巴巴到各大实验室的内部实践莫不如此。甚至谷歌的开源Gemma模型也因TPU与GPU架构差异而做出不同技术选择。尽管Blackwell架构与TPU看似差异巨大,实则设计理念正在趋同。

作为挑战者,仅拥有供应链优势远远不够(毕竟缺乏自有客户群体),必须在特定负载上实现5倍硬件效率优势,同时还要祈祷技术路线不会突变——因为NVIDIA每年都在架构迭代(针对现有模型持续优化)。挑战者必须进行激进的技术冒险,期待模型发展路径与自己的设计保持同步。毕竟NVIDIA拥有供应链效率、制程节点与内存技术的先发优势:即使AMD率先采用2纳米工艺、更高密度HBM和3D堆叠等本应领先的技术,最终仍难以撼动其地位。

Guido Appenzeller:软件层面仍是关键优势——NVIDIA的软件生态确实卓越。

Dylan Patel:确实如此。但问题在于:NVIDIA在网络技术、HBM内存、制程工艺等方面都具备领先优势;他们能更快推出新品、更快实现量产;在与台积电、SK海力士等芯片制造商、内存供应商、服务器机架厂商乃至铜缆供应商的谈判中都拥有更强的成本控制能力。因此挑战者必须在硬件效率上实现5倍优势才可能取胜。

Guido Appenzeller:但公平地说,如果出现真正可行的竞争对手(即使仅具备边际成本优势),大多数GPU大客户都会立即分流部分订单以培育第二供应商。

Dylan Patel:这就是AMD和微软当前的处境。

Guido Appenzeller:某种程度上确实如此,但市场接纳度仍然相当有限。

Dylan Patel:但现实是:Meta仍在持续采购NVIDIA产品。微软曾批量购买AMD芯片但最终停止——因为尽管AMD具备某些优势,但在能效比层面始终未能超越,且NVIDIA拥有规模更大的软件团队。AMD在我提到的所有维度都只能做到有限竞争。因此挑战者不能简单重复NVIDIA的路径或试图像AMD那样通过执行力取胜,必须实现技术范式的跨越。但芯片设计周期过长导致模型架构早已演进:当你在设计针对当前模型的芯片时,下一代GPU已经在定义新的优化方向。

研究路径同样面临困境:虽然神经形态计算可能是终极方案,但无人真正投入——因为技术发展具有路径依赖性。如果另起炉灶重启技术路线,将面临巨大风险。一旦主流技术走向与你选择的分支偏离,所有投入都将付诸东流。供应链因素会使5倍优势缩水至2.5倍;如果真构成威胁,NVIDIA只需略微压缩利润率就能让2.5倍优势变为仅50%领先。再加上软件生态的差距,最终实际优势可能只剩50%——这根本不足以颠覆市场格局。

美国的电力瓶颈与数据中心扩张的战略博弈

Erin Price-Wright:国防供应链因素也不容忽视。

Dylan Patel:确实涉及国防供应链。正如Lutnick本人所言——我们在稀土矿产领域不得不采取类似策略。

Erin Price-Wright:关键在于:能效问题在中国的优先级远低于美国,因为他们拥有足够强大的电力基础设施支持。即使使用性能较低的芯片,中国近乎无限的电力供应也能完全消化这些能耗——这种差异使得能效标准在中国呈现出完全不同的价值评估体系。

Dylan Patel:这在美国确实构成重大挑战。正如Jensen反复强调的——即使免费赠送H20芯片在美国也无人问津。我亲耳听到企业表示:受限于电力配额,即便免费获得H20芯片,其算力密度反而会导致整体计算能力下降,这种交易根本不合理。这种能源政策与芯片战略的互动关系将如何演变,确实值得深入观察。

Erin Price-Wright:那么中国是否在限制AI算力发展?

Dylan Patel:我认为并非如此。中国并非主动限制算力,而是面临资本效率问题:虽然中国企业在资本支出增长率上超过美国企业,但由于芯片性能差距,单位美元投入产生的AI输出(token等)仍然较低。真正的制约因素始终是资本配置效率。中国完全具备加大投入的能力:每年通过国有企业和非收益性资本支出向半导体行业补贴约1500-2000亿美元。既然Meta和谷歌的资本支出分别达到600亿和800亿美元,中国完全可以在AI生态投入更多资金,只是尚未决策这样做。而对美国而言,实际制约确实是电力基础设施:谷歌大量TPU等待数据中心供电落地,Meta的GPU也面临同样问题——他们甚至开始搭建临时帐篷式数据中心来应对电力瓶颈。

Guido Appenzeller:这是否也与其不愿向更广泛生态销售芯片有关?如果他们坚持将芯片限定在自有数据中心使用,同时又未能及时为超大规模需求扩建数据中心,确实会形成制约。但若开放市场供应,这种约束是否还会存在?

Dylan Patel:确实如此。以CoreWeave为例,其核心价值在于快速部署基础设施的能力——虽然软件体验良好,但多数客户实际采用裸金属服务:只需在GPU故障时及时更换并确保网络配置正确即可。这种模式之所以成立,正是因为其解决了基础设施的敏捷供应问题。

Guido Appenzeller:他们的扩张更激进。

Erik Torenberg:而且不设地域限制。

Guido Appenzeller:公平地说,Jensen也很认可他们。

Dylan Patel:确实如此。这种去中心化的生态布局对NVIDIA反而更有利。关键在于CoreWeave这类企业完全不受传统约束:他们能将加密矿场改造为AI数据中心——曾以100亿美元收购估值仅20亿美元的加密矿业公司,看中的正是其电力基础设施资源。当前全球都在争相建设电力数据中心,CoreWeave和Oracle等公司正全力推进此事。事实上,谷歌今日刚收购了加密矿业公司TeraWolf 8%的股权。

Erin Price-Wright:并非因为要涉足加密货币挖矿,而是需要数据基础设施。他们真正需要的是电力资源。

Dylan Patel:他们迫切需要电力资源。所有超大规模企业都已暂时搁置可持续发展承诺——因为当前最紧迫的是获取电力。即便不在自建数据中心实施,开放市场仍存在诸多挑战:电力短缺正在严重制约美国的芯片部署。虽然CoreWeave等企业可能推进得更快,Oracle也持开放态度,但美国整体的基础设施建设仍受严重制约。尽管资本已经投入(芯片成本占集群总成本的60-80%),但采购的芯片无处部署——数据中心准备进度远远跟不上。这个问题困扰着谷歌、微软、Meta等众多企业。

Erin Price-Wright:美国电力基础设施建设确实面临巨大困难。

Dylan Patel:电力、电网互联、输电系统、变电站——所有这些环节都存在问题。德州的电工行业就是典型:如果你愿意成为流动电工,收入可比石油行业。过去在西德州,体力劳动者能赚到十万美元,但现在情况更夸张:在达拉斯200英里外的城镇建设数据中心,从事布线、传输系统等工作,薪资比几年前翻了一番。劳动力短缺同样是严峻挑战。

中国虽然不存在这些问题,但他们尚未大规模投入资本。而资本本身也是问题:NVIDIA今年营收将超2000亿美元,明年预计突破3000亿;谷歌将在TPU数据中心投入约500亿美元;亚马逊也为Tranium数据中心投入巨额资金。这种资本规模已接近国家级别,关键不在于能否支出,而在于如何实现成本效益最大化。

数据中心动力与冷却系统:下一代发展瓶颈

Guido Appenzeller:那么数据中心的终极形态是什么?我们需要更多电力、更高效的冷却系统——未来所有数据中心是否会建在核反应堆旁边?或是依赖太阳能,甚至利用深海进行冷却?

Dylan Patel:关于数据中心冷却的讨论存在过度渲染。AI的能耗被严重夸大——事实上,紫花苜蓿种植的耗水量是AI数据中心的100倍,到2030年这一比例仍将维持。而苜蓿的经济价值却微乎其微。虽然有人尝试海底数据中心以降低冷却成本,但这种方式仅能节省5-10%的成本,实际意义有限。真正的解决方案不在于极端环境部署,而在于优化现有冷却技术的效率与规模。

Guido Appenzeller:但如果要将海水用于冷却,何不直接将数据中心建在海底?

Dylan Patel:这种方案面临维护难题——一旦设备需要维修就会陷入困境。电力问题也是类似逻辑:电力本身成本并不高昂,真正的挑战在于基础设施建设。

Guido Appenzeller:以及如何将电力输送到所需位置。

Dylan Patel:还需要解决空间布局、电压转换等芯片所需的配套问题。

Erin Price-Wright:所以核心不在于总电量大小,而在于电力布局与传输效率。

Guido Appenzeller:就全球能源消耗而言,AI数据中心的占比仍然不足百分之一。

Dylan Patel:确实。即便到2030年末,美国数据中心的电力消耗占比预计也仅达到10%左右。

Guido Appenzeller:若计入全部能源消耗,比例会更低。其实电动汽车普及对能源结构的影响,可能远大于所有AI数据中心的能耗总和。

Dylan Patel:但在欧洲等其他地区,这个数字增长并不快。我们需要建设更多电力设施,但关键不在于数量突破,而在于如何科学规划。虽然电价从每千瓦时几美分飙升至10美分,但当我们考虑TCL时,集群建设中的GPU采购、网络设备等支出仍远超过电力成本。冷却系统也是类似情况。

Guido Appenzeller:在四年摊销的GPU数据中心成本中,电力占比是多少?

Dylan Patel:若建设Blackwell架构的数据中心,80%成本属于资本性支出——包括GPU采购、网络设备、数据中心物理改造及电力转换设备。其余20%才是局域网、电力、冷却系统、冷却塔、备用电源及发电机等运营成本。正因如此,即便这类成本增加10%或50%也影响有限。这就解释了为何马斯克的做法看似荒谬却合理:他们不惜成本在数据中心外部配置发电机和移动冷却器进行液冷,而非选择更经济的方案——因为提前三个月建成数据中心带来的额外训练时间价值,远超过增加的基础设施成本。从TCO角度考量,芯片性能提升和更快的上市时间带来的收益,完全证明这种决策的正确性。毕竟芯片闲置才是最大的浪费。

Erin Price-Wright:通过完全绕过电网、互联系统和公共公用事业体系。

Dylan Patel:完全正确。

Guido Appenzeller:您如何看待Intel的发展前景?

Dylan Patel:美国需要Intel的存在。

Erin Price-Wright:我认为世界需要Intel。

Dylan Patel:世界确实需要Intel。根据行业多家客户的测试芯片验证,我认为三星在先进制程研发方面甚至落后于Intel——行业普遍认同Intel在2纳米级工艺技术上比三星更先进,尽管两家都远落后于台积电。台积电在某种程度上形成垄断。最常被质疑的是:为什么台积电没有赚取更多利润?明年仅计划涨价3%到10%。作为垄断企业,他们本可大幅提价,但台湾企业的经营理念不同于"贪婪的美国资本家"。虽然台积电在纽交所上市(实际上大部分股权由美国持有),若由美国人管理,定价策略必然会更加激进。

当前困境在于全球最先进的半导体产能(包括多数成熟制程)都集中在一个岛屿上。这种局面必须改变。Intel虽然落后,但差距并非不可逾越。只是从经济性角度而言,当前格局并不合理。

Guido Appenzeller:若要让Intel保持竞争力,是否应该将其拆分为多个独立公司?

Dylan Patel:拆分过程将消耗大量管理层时间和精力,等完成拆分公司可能早已破产。这才是最大挑战——虽然从理论上Intel应该分立,但实际拆分所需的管理资源投入是不切实际的。当前更需要的是CEO帕特·基尔辛格专注核心问题。作为史上最杰出的半导体投资人之一,他投资过多家先锋企业,这种跨极投资策略原本体现其全球视野,但现在却引发争议。事实上,他真正需要的是深入理解供应链而非拆分公司,否则永远无法解决根本问题。

Intel的症结在于从设计到产品交付需5-6年,有时更长。当芯片完成流片后,他们往往需要14次修订迭代,而行业领先企业通常只需1-3次修订就能实现量产。其他企业三年内就能完成芯片发布,Intel却陷入无休止的修订循环。

Guido Appenzeller:那么纵观Intel现状,他们在AI领域仍缺乏竞争力产品,且短期内难以突破。这对他们的市场定位意味着什么?虽然CPU业务表现良好,但缺乏优秀的AI芯片产品——作为独立芯片公司,这种定位是否具有长期可持续性?

Dylan Patel:IBM每次发布新主机都能赚取更多利润,x86架构也远未消亡。虽然无法获得高增长率,但完全能作为盈利性业务持续运营——PC业务也是同理。尽管面临ARM架构冲击和AMD竞争,只要将人员规模缩减至三分之一或一半,这仍可成为高利润业务。

帕特·基尔辛格要拯救Intel必须双管齐下:在设计部门进行大规模裁员但保留核心人才,确保从设计到发布的周期压缩至2-3年(而非5-6年);在晶圆厂同样需要精简架构。我曾直接向他指出:公司存在荒谬的四层管理体系,某fab自动化负责人从未与他直接沟通——经过实地考察后,这位低效管理者已被辞退。Intel大部分团队曾引领全球生产工艺20年,但积累了太多冗余。基尔辛格需要甄别优劣、清理冗余,而非将时间浪费在拆分架构上。虽然拆分理论上更合理,但现实是他必须优先解决:如何获取资本、提升良率、加速产品交付——这些基本问题不解决,等不到转型完成公司就可能破产。

Guido Appenzeller:我认为这些目标完全正确。但根据我此前在Intel的观察,最大挑战在于其三大业务板块——软件、芯片设计和核心制造——存在着截然不同的企业文化。将如此多元的文化体系整合在统一架构下运营,确实极具挑战性。

Dylan Patel:从运营角度应该分立公司,但实体拆分需要耗费过长时间——基尔辛格根本没有这个时间窗口。Intel若不能获得大规模注资或裁员半数员工,破产将是必然结局。即便裁员30%本属必要,但引发的连锁反应也将造成严重冲击。

更紧迫的是即便完成制造工艺改进,他们仍需要巨额资金建设下一代晶圆厂——而这正是Intel无力承担的。相比实体拆分,这些才是更致命的问题。虽然长期看制造业务必须与芯片设计软件分离(这样能增强各实体的责任意识并提升客户服务能力),但等到拆分完成时公司早已破产。

唯一希望是获得大规模资本注入:如果超大规模企业们意识到台积电垄断可能导致毛利率升至75%(加上共封装光学、供电系统等附加成本最终推高总成本),或许会联合向Intel各注资50亿美元。这种生命线或许能让Intel获得喘息之机,最终重塑竞争力——这已是最后的希望。

科技巨头战略建言

Erik Torenberg:如果Jensen此刻在这里,您会给他什么建议?

Dylan Patel:他手握巨额资产负债表——自由现金流惊人。新特朗普税法案允许GPU集群成本在第一年全额折旧(我们曾分析过这对Meta意味着每年100亿美元的税务影响),各大超大规模企业都将获得巨大税务优惠。既然NVIDIA原本就要支付数百亿美元税款,何不借此进军基础设施领域?虽然这看似疯狂(毕竟要自购GPU建设数据中心,与客户形成竞争),但客户本身已在自研芯片。他们应该通过投资加速数据中心生态建设——因为我们能相对准确地预测其明年收入:这本质上取决于数据中心建设进度

现在需要在TPU与GPU之间分配份额,但关键是必须加速基础设施投入。与其进行股票回购和分红(这种保守策略注定失败),不如将资本再投资,构建超越芯片和服务器的端到端基础设施控制能力。凭借这笔巨额资金,他完全可以向基础设施层深度拓展——若真想成为世界之王(我相信这是他的目标),这就是最佳路径。毕竟到今年底,NVIDIA现金储备将超1000亿美元,这些资金需要找到更战略性的用途。

Guido Appenzeller:那么对Sergey和Sundar有什么建议?

Dylan Patel:我认为他们应该全面开放TPU技术——开始对外销售芯片,开源更多XLA软件(目前开放部分有限),真正实现技术透明化并采取更激进策略。谷歌在数据中心建设和公司多个领域都显得过于保守,TPU团队的下一代设计也缺乏突破性,部分原因是最优秀的成员已流向OpenAI(我认识的五名顶尖人才全部离职)。

如果他们不积极应对,ChatGPT和AI代理对可 monetize 搜索查询的侵蚀将长期损害谷歌业务。虽然DeepMind方面已有所改善(谢尔盖深度参与其中),但在物理基础设施和TPU商业化方面仍落后。若能对外销售TPU并重组数据中心建设体系(重新夺回算力优势),本可压制竞争对手发展势头。但现在若再不行动,某些企业可能在几年内实现超越。此外——他们还需要学会如何高效交付产品。

Erik Torenberg:那Zuck呢?

Dylan Patel:超智能的发展尚未可知,但他们在数据中心建设上确实展现了惊人速度:宁愿搭建临时帐篷也不等待传统数据中心,毕竟这些设施可能五年后就会过时。虽然收购思维公司(Thinking)或SSI的300亿美元计划未能实现,但他们用更少的成本招募了大量人才。

Zuck显然认识到模型与基础设施的紧迫性。从他关于AI的公开论述可以看出其战略视野:可穿戴设备、AI集成、购物助手等规划都很清晰。但他需要加速产品落地——目前核心IP之外的产品发布总是差强人意。Meta Reality Labs表现尚可,但应该更明确地推出ChatGPT竞品、Claude Code替代方案等更多产品,而不是始终局限在自有生态内。

Guido Appenzeller:您认为苹果是否应该具备同样的紧迫感?如果Tim Cook在场,您会给他什么建议?

Dylan Patel:有趣的是,他们最优秀的AI人才正在流向Superintelligence——这些人正在开发AI加速器。苹果虽然拥有AI模型,但进展实在太慢。尽管在上次财报电话会议中提及将增加相关资本支出,但现实是:如果不大规模投入500亿到1000亿美元建设基础设施,苹果很可能错失这班航船。

Guido Appenzeller:您认为当前的Siri不足以应对挑战吗?

Dylan Patel:苹果的封闭生态确实能提供一定保护,但这种保护是有限的。就像IDFA政策——他们切断了与Meta的数据共享,但Meta反而构建了更强大的模型,现在比以往任何时候都拥有更多用户数据和影响力。Meta被逼摆脱依赖后反而变得更强,AI领域也会重演这个模式。

虽然苹果能获取用户文本等数据,但其他企业将通过AI agent整合更全面的用户数据。当AI逐渐取代触控板键盘成为主要交互界面时,苹果对用户体验的控制权将逐渐流失——他们似乎尚未真正意识到"以AI为计算接口"意味着什么。虽然营销话术提及这一点,但这对计算范式的颠覆远超想象。苹果拥有顶尖硬件团队和出色的产品形态,但我不确定他们是否真正理解未来五年世界将如何演变——更关键的是,他们的建设速度远远跟不上时代变革。

Guido Appenzeller:那么微软在这方面表现如何?

Dylan Patel:微软面临同样问题。他们在2023和2024年非常激进,但随后大幅收缩——现在OpenAI正逐渐脱离掌控,数据中心投资也被大幅削减。他们本可能成为全球最大基础设施企业(规模两倍于现状),虽然有人认为这种扩张可能不经济,但现实是:他们正在失去对OpenAI的控制,内部模型研发也遭遇重大挫折。

虽然在LLM竞技场表现尚可,但MAI项目已经失败。Azure市场份额正被Oracle、CoreWeave和谷歌等企业侵蚀。其自研芯片项目在超大规模企业中表现最差,执行层面问题重重。最令人费解的是:拥有最强代码模型的GitHub为何没能成为年度经常性收入最高的软件平台?

Guido Appenzeller:他们拥有最优秀的IDE、最完善的源代码仓库、最强的企业客户关系(包括与Salesforce的合作),最早进入市场——可谓占尽先机。

Dylan Patel:但现在这些优势正在消失。GitHub Copilot表现不及预期,Microsoft Copilot仍然糟糕。公司急需彻底整顿——虽然凭借强大的企业客户关系还能维持优势,但若没有真正具有竞争力的产品支撑,这种局面令人担忧。萨提亚在销售端做得很好,但现在必须聚焦产品力提升。

Guido Appenzeller:如果是马斯克在场,您会给他什么建议?

Dylan Patel:xAI团队许多人对擦边内容模型感到不满,但这其实能带来巨额收益——正是加速公司收入增长的关键路径。虽然马斯克流失了大量人才并砍掉优秀项目,但他始终是顶尖人才的磁石和创造者,因此我不会赌他失败。自他重新专注于产品后,Robotaxi项目似乎重现曙光(我尚未亲身体验,但试过的朋友反馈不错)。需要注意的是:那些曾造就他辉煌的即时决策,有些现在反而造成损害。或许我能给的建议是更聚焦核心产品——尽管他确实已在这样做。

原视频:Dylan Patel on GPT-5’s Router Moment, GPUs vs TPUs, Monetization

https://www.youtube.com/watch?v=xWRPXY8vLY4

编译:Xinyue Wan

来源:ZFinance

相关推荐