摘要:最近圈内有关人类多久能实现AGI的问题可谓众说纷纭。前段时间,OpenAI宣布2028年将打造出AI研究院;而前两天,在伊丽莎白女王工程奖的获奖现场,辛顿预测20年内AI将在辩论中永久性胜过人类,本吉奥则认为若延续当前趋势,5年内AI或达员工工作水平。
最近圈内有关人类多久能实现AGI的问题可谓众说纷纭。前段时间,OpenAI宣布2028年将打造出AI研究院;而前两天,在伊丽莎白女王工程奖的获奖现场,辛顿预测20年内AI将在辩论中永久性胜过人类,本吉奥则认为若延续当前趋势,5年内AI或达员工工作水平。
在最新一期《a16z》播客中,主持人 Erik Torenberg 邀请了AI编程工具 Replit 的创始人 Amjad Masad 和问答网站 Quora及聊天机器人 Poe 的创始人 Adam D’Angelo,也谈论了这个炙手可热的话题——我们距离AGI究竟还有多远。
在这场对话中,两人几乎在每个问题上都意见相左:Adam D’Angelo 极度乐观,认为 LLM + AI Agent 将在 5 年内接管大部分远程知识工作。
Amjad Masad 则认为,当前的LLMs是功能性AGI,行业正在陷入“蛮力堆叠智能”:我们在堆算力和数据,却仍不了解思维如何运作。此外,他们还辩论了:大语言模型是否已触顶?我们是否真的接近 AGI?以及,当初级岗位被 AI 淘汰、而专家仍不可替代时,社会会发生什么。
他们还深入探讨了一个令人不安的现实:AI 可能会制造出就业市场的“失落中层”;为什么如今旧金山的创业者都在一味追逐财富、不再做奇怪又有创意的实验;以及“意识研究”是否已经被“提示工程”彻底取代。
此外,本期还谈到:
代码智能体已能连续运行超过 20 小时;“主权个体”论的回归;以及普通用户在多 AI 并用时展现出的惊人复杂性与创造力。小编整理了整期播客内容,干货满满,建议收藏细读,enjoy!
主持人:最近很多人对大语言模型开始泼冷水了,情绪变得悲观。人们说这些模型有很多局限,不能带我们到达 AGI,也许我们原以为几年内能实现的目标,现在可能要再推迟十年。Adam,你似乎更乐观一些,不如先谈谈你的总体看法?
Adam D’Angelo :老实说,我不太明白这种悲观从哪来的。要是你回头看看一年前的世界,再看看过去一年模型在“推理能力”“代码生成”“视频生成”等方面的进步——发展速度其实比以往更快。我真不理解为什么有人会觉得形势不好。
主持人 :也许因为大家曾经希望这些模型能替代所有任务、所有工作,但现在看来,它们似乎只能做到“中间环节”,而不是“端到端”。所以人们担心劳动力不会像我们想的那样快被自动化。
Adam D’Angelo :我不太清楚他们之前设想的时间表是什么,但如果把眼光放到五年后,那绝对是一个完全不同的世界。现在模型的限制,并不是“智能不够”,而是“没办法在生成时拿到合适的上下文”。还有一些像“计算机使用”这样的能力还没完全解决,但我认为一两年内肯定能实现。一旦解决了这些,我们就能自动化掉人类做的大部分工作。那是不是 AGI 我不好说,但肯定能让现在的很多批评都不再成立。
主持人:
那你怎么定义 AGI 呢?
Adam D’Angelo :每个人的定义都不太一样。我比较喜欢的一个定义是:如果有一个远程工作者,他能完成任何可以远程完成的工作,而模型能在每个这样的岗位上都比最优秀的人类做得更好,那就可以称为 AGI。有人把那种水平叫 ASI(超人工智能),但我觉得一旦模型能比典型远程员工更出色,我们就已经进入了一个完全不同的世界。
主持人 :所以你觉得 LLM 还有很大潜力,不需要全新的架构?
Adam D’Angelo :我不这么认为。确实有些问题,比如记忆、持续学习等,用现有架构不太好实现。但这些问题也许可以“伪装性地”解决,或者说“够用”。我们现在没有看到明显的瓶颈——推理模型的进步惊人,预训练的进展也依然很快。也许没大家预想的那么快,但仍然够快,让我们在未来几年看到巨大进展。
主持人 :Amjad,你听完这些怎么看?
Amjad Masad :我觉得我一直都挺一致的,也许可以说,一直挺准确的。
Adam D’Angelo :一致是指“和自己一致”还是“和现实一致”?
Amjad Masad :两者都有吧。我的观点和现实的进展基本一致。我大概在 2022、23 年 AI 安全讨论最热的时候,开始公开表达一些怀疑。当时我觉得我们需要更现实一点,否则会吓到政客、吓到公众,华盛顿就会跑来整顿硅谷,把一切都按下暂停键。比如那篇“AGI 2027”论文,还有那些所谓“情境意识”“AI威胁”的论文——它们根本不是科学,而是一种“情绪化的预言”。说整个经济会被自动化、所有工作会消失,这些都不现实,而且会导致糟糕的政策。我的看法是:LLM 是惊人的机器,但它们不是人类式的智能。比如那道“草莓问题”模型解决了,但一个简单的问题——“这句话里有几个字母R?”,四个模型里有三个都答错,只有 GPT-5 的“高思考模式”经过 15 秒才答对。这说明它们的智能与人类不同,而且有明显的局限。我们现在其实在“补丁式修复”这些局限,靠更多标注、更多人工强化、更多系统整合让它们“看起来更聪明”。但这意味着我们还没有真正“破解智能”。一旦我们真正破解了智能,它应该是“可扩展的”,就像“苦涩教训”(bitter lesson)所说,只要投入更多算力和数据,就能自然提升。而现在并不是这样。过去在 GPT-2、3、3.5 时代,只要加数据、加算力,模型就变强。但现在越来越多是“人工干预”:要标注数据、要人工设计强化学习环境,甚至要雇合同工帮模型学编程。OpenAI 现在在做的“让模型成为投行分析师”的计划就是这样。我称这种现象为“功能性 AGI”(Functional AGI),即我们能通过大量数据、训练和环境设计,让模型在很多职业中实现局部自动化。但这需要巨大的人力、资金和数据投入。当然,模型仍在变好,Claude 4.5 比 4 代强很多,进步还在继续。但我不认为 LLM 会通往真正的 AGI。对我来说,AGI 是一种“强化学习式智能”:能进入任何环境,像人类一样高效地学习。比如把人放进一个台球厅,几小时后他就能学会打台球;而机器做不到。现在的一切都需要大量数据、算力、人工知识,这说明我们仍处于“人类专业知识依赖期”,还没进入“可扩展智能期”。
Adam D’Angelo :我同意人类确实能在新环境下快速学习新技能,这点模型还不行。但人类智能是进化的产物,背后等于用了庞大的“演化计算”。模型的“预训练”只是一个远远粗糙的替代品,所以才需要更多数据才能学会每项技能。但就“实际效果”而言,只要我们能造出在平均水平上和人类一样好的系统,哪怕成本高、算力消耗大,那也足以重塑经济和劳动力市场。
Amjad Masad :我同意,也许这确实是“蛮力型智能”,但这未必是坏事。
主持人 :那你们俩的分歧到底在哪?
Amjad Masad :我不认为我们会在短期内到达“奇点”或“新文明阶段”。除非我们真正理解“智能”的本质,发明出非蛮力的算法,否则不会发生那种突破。
Adam D’Angelo :你觉得那要等很久?
Amjad Masad :我没法确定。但我担心 LLM 会“分散注意力”,吸走太多人才去做应用,而不是去研究“智能的本质”。
Adam D’Angelo :这确实可能,但同时也吸引了大量本来不会进 AI 行业的人才。现在有庞大的资金、算力和研究者投入,我仍然相信,没有什么问题是最聪明的人花五年时间不能解决的。
Amjad Masad :但“基础研究”不一样。现在大部分是“产业研究”,目的在于盈利,而不是理解。正如哲学家托马斯·库恩说的,一个研究范式往往会变成“泡沫”,吸干所有注意力,就像弦理论之于物理学。
Adam D’Angelo :对,他说要等到老一代研究者退休,范式才可能改变。
Amjad Masad :我对“范式转移”确实比较悲观。
Adam D’Angelo :但我觉得当前范式其实挺好,我们还远没到“边际收益递减”的阶段。
主持人 :那如果继续靠蛮力推进,你觉得全球 GDP 会从现在的 4~5% 年增长变成 10% 以上吗?
Adam D’Angelo :取决于能走多远。假设你能有一种模型,只需花 1 美元/小时的能耗,就能完成任何人类的远程工作,那么经济增长率肯定远超 4~5%。但也许模型要么比人类更贵,要么只能做 80% 的工作。最终,我认为我们迟早能让模型以更低成本做完所有人类能做的事,也许 5 年、10 年、15 年,但在那之前,我们会受限于模型的短板、能源、供应链等瓶颈。
Amjad Masad :我担心的一个问题是:如果模型能自动化掉“入门岗位”,但替代不了“专家岗位”,那会造成一种奇怪的经济结构。比如 QA 测试,AI 处理了大部分情况,但还需要少数专家管理大量Agents。生产力提高了,但企业不会再雇新手。那是个诡异的平衡状态。
Adam D’Angelo :确实,这种情况已经出现在计算机专业毕业生身上了。公司岗位减少了,因为 LLM 能替代他们之前做的工作。这会导致“人才梯度断层”,企业没动力去培训新人。也许会催生“AI 教育”或“AI 培训”的新市场,但确实是当下的问题。
Amjad Masad :还有个相关问题:我们现在依赖专家数据去训练模型,但如果模型取代了专家,那未来谁来提供高质量训练数据?当“专家群体”被替代后,改进模型的过程就会受阻。这是一个经济学问题——自动化的第一波之后,怎么继续?
Adam D’Angelo :确实,关键在于我们能否构建出好的强化学习环境。像 AlphaGo 那样有完美环境可以无限提升,但很多现实任务的数据有限,这会是个瓶颈。
主持人 :那你们觉得未来会出现什么新职业?有人说每个人都会成为“网红”或从事“情感照护类”工作,或者都去帮 AI 训练数据。你们怎么看?
Adam D’Angelo :当一切都能自动化后,人们可能就去做艺术、诗歌之类的事。其实电脑下棋比人强后,下棋人数反而增加了。只要财富能合理分配,这种世界并不坏。但那可能要至少 10 年。在更近的未来,会爆发的职业是那些能高效使用 AI 的人。能用 AI 完成 AI 自己做不到的任务的人,会非常抢手。
Amjad Masad :我不认为我们能自动化所有工作——至少在当前范式下不可能。很多工作本质上是“服务他人”的,你必须理解人类、成为人类,才能真正知道别人想要什么。除非我们造出“具身的人类式智能”,否则人类始终会是经济中“想法”的生成者。
主持人 :Adam,你做过 Quora、Poe 这样的“人类智慧聚合平台”。你怎么看未来人与 AI 的关系?比如我们会不会依赖 AI 做心理咨询或护理?
Adam D’Angelo :人类的集体知识仍然非常重要。一个专家、一生积累的经验,很多内容其实从未被写下来。这些“隐性知识”依然很有价值。我不确定分享知识的人未来能否靠此为生,但如果这是系统的瓶颈,市场自然会将资源流向这里。至于“必须是人类才能理解人类”这一点,我并不完全同意。比如社交平台的推荐算法,其实早已比人类更懂你。就算你自己来为自己定制一条“最想看的信息流”,你也比不上算法。算法掌握了海量的行为数据与相似模式,它能精准预测你感兴趣的内容。当然,艺术家或厨师之类的职业确实需要“自我体验”,比如厨师要亲口尝菜,但总体上,他们掌握的数据量远少于 AI 能学习到的。
Amjad Masad :你说得有道理。推荐系统本质上是在高维空间里,找到符合你偏好的点。不过我觉得那种“理解”还是很窄的,只适用于某些任务。我更倾向于相信《主权个体》(The Sovereign Individual)那本书的预测。那是 20 世纪 90 年代的书,但它描述了当计算机技术成熟后社会的变化。作者说,人类经历了农业革命、工业革命,如今正经历信息革命或智能革命。我们现在叫不出它的名字,但未来的人会知道。他们的结论是:未来大部分人可能失业或经济上“非生产性”,而少数创业者会高度杠杆化——因为他们能用 AI 快速创建公司、产品、服务,组织经济。政治也会随之改变。过去政治的前提是“每个公民都是经济个体”;但当自动化普及、只有少数人仍具生产力时,政治结构会重新洗牌。国家会开始争夺这些“高产出个体”,就像城邦时代那样,富人能自由迁移、议价税率。这听起来像 Balaji(区块链思想家)的观点,但其实并不遥远。我并不是说我希望如此,但必须承认,一旦“人”不再是经济的基本生产单元,连文化和政治都必须随之改变。
主持人 :我觉得这本书(指克里斯滕森的《创新者的窘境》)以及我们这次更广泛的讨论,都在探讨一个问题:什么时候一种技术是利于“防守方”的,而什么时候它是利于“聚合者”的?换句话说,它什么时候会激励更多的去中心化,而什么时候又会强化中心化?还记得彼得·蒂尔十年前有个俏皮话——他说“加密货币是自由主义的,偏向去中心化;AI 是共产主义的,偏向中心化”。但我觉得这两种说法都不完全准确。AI 确实让很多个人变得更有能力,就像你刚才说的那样;而加密货币,最后看起来更像金融科技或者是“稳定币”体系的一部分,它反而在某种程度上强化了国家的力量。比如你看中国正在推动的那套体系。所以,现在有一个开放的问题:哪种技术最终更能赋能——是“边缘”个体,还是“中心”机构?如果它赋能的是“边缘”,那也许我们就会出现一种“杠铃效应”:一头是极度强大的巨头,另一头是数量众多的主权个体。
Adam D’Angelo :我对这项技术能让“个人创业者”数量暴增这件事感到非常兴奋。它极大地扩展了个人能做到的事情。过去很多好点子从未被实现,只因为要组建团队太麻烦——要找齐各种技能的人,还得融资。而现在,一个人就能把这些想法变成现实。我觉得我们会看到很多令人惊叹的新东西。
Amjad Masad :我经常在 Twitter 上看到这样的例子——有人因为用像 Replit 这样的工具赚到太多钱,干脆辞职自己干了。这真的很激动人心。也许是第一次,“机会”被大规模地普及到所有人手里。对我来说,这是这项技术最令人兴奋的部分之一——除了我们之前谈的那些,它让更多人能够成为创业者,这意义重大。
主持人 :这个趋势在未来十到二十年肯定会持续下去。但你们觉得,AI 是“延续型创新”(sustaining)还是“颠覆型创新”(disruptive)?换句话说,大部分价值创造会来自于 OpenAI 之前就存在的大公司(比如 Replica、甚至 Quora)?还是来自 2015、2016 年之后的新公司?
Adam D’Angelo :这是个好问题,也关联到另一个问题:有多少价值最终会被“超级云厂商”(hyperscalers)捕获,而不是被其他人获得?我觉得现在的局势其实挺平衡的。超级云厂商之间竞争足够激烈——让应用层公司有选择、有替代方案、价格也在迅速下降。但同时竞争又没激烈到让这些实验室(像 Anthropic 和 OpenAI)无法融资、无法进行长期投入。所以总体来说,我觉得这是一个相当健康的平衡:超级云厂商还在成长,同时也会出现大量新公司。
Amjad Masad :是的,我也差不多同意。“延续型”和“颠覆型”这两个术语来自《创新者的窘境》,它讲的是一个技术演进的“力量曲线”:新技术一开始看起来像玩具,抓住的是市场的低端,但随着它演进,它会上升到力量曲线的高处,最终颠覆所有现有巨头。一开始,老牌公司不会重视它,因为它看起来不成熟。等它进化成熟时,却已经吃掉整个市场。PC 就是个例子。最初,做大型主机的厂商根本不在意个人电脑,觉得那是给小孩用的玩具,但后来连数据中心都建立在 PC 架构上。不过也有一些技术,它们反而强化了现有巨头,对新玩家帮助不大。所以我觉得,Adam说得对,这次的情况可能是“两者兼具”,而且可能是第一次出现这种情况。互联网当年是彻底的“颠覆型”技术,而 AI 似乎既让超级云厂商、互联网巨头如虎添翼,又同时创造了新的商业模式,能与它们抗衡。比如,《创新者的窘境》这本书出来后,大家都学会了“不被颠覆”。以 ChatGPT 为例,它本质上是对 Google 的一种“反向定位”创新——Google 已经有一个运转良好的业务,而 ChatGPT 早期会幻觉、生成错误信息,这让 Google 无法贸然推出类似产品,因为它需要保持“可信度”。所以即使 Google 内部已经有类似的技术,他们直到两年后才发布 Gemini。结果是,OpenAI 抢先占据了品牌认知。但反过来,AI 也让 Google 的产品全面变得更好——无论是搜索、Workspace 还是手机。总的来说,AI 同时既颠覆又强化了老牌公司。
Adam D’Angelo :我完全同意。大家都读过《创新者的窘境》这本书,也改变了它原本的意义。现在,资本市场会惩罚那些不适应变化的公司,鼓励那些敢于长期投资的公司。管理层也都读过这本书,他们的决策能力普遍比 20 世纪那批大公司要高;许多公司由创始人控制,也让他们能更灵活地承受短期损失去换取长期布局。所以我认为,如果我们还处在像 90 年代那种环境下(资本约束多、竞争少),AI 可能会更“颠覆”;但在当下这个高度竞争的环境中,它反而更“延续”。
主持人:
我们作为一家风投公司,也在反思过去几年的一个错误。我们曾因为“这个公司看起来不会成为市场第一”就放弃投资——因为从 Web2 我们学到“要投类目冠军”。但现在看来,这个市场大到足以容纳多个赢家。不仅是基础模型公司,应用层公司也一样。它们可能各自割据、细分市场,却都能做到“风险投资级”体量。你觉得这是一种持久现象吗?还是阶段性的?
Adam D’Angelo :我认为一个关键区别是:网络效应在现在的 AI 时代远不如 Web2 时代强。这让竞争对手更容易起步。当然,大公司仍有规模优势——更多用户意味着更多数据、更多资金。但这不再是“绝对壁垒”,只是“相对优势”。这意味着现在可以有更多赢家,而不是赢家通吃。
主持人 :另一个区别是,现在用户能非常清楚地看到价值,所以他们愿意从早期就付费。Web2 时代,很多公司(比如早期的 Facebook、Google)一开始的疑问都是:你怎么变现?而现在的 AI 公司从第一天起就能赚钱——包括你们公司在内。
Adam D’Angelo :对。过去的公司要等规模上去才能做广告变现;而现在的订阅模式让你可以一开始就收费。像 Stripe 这样的工具也让这一切变得更简单。这也让新公司更容易启动。
Amjad Masad :还有地缘政治的因素。显然我们已经不在一个完全全球化的时代,未来可能会更碎片化。所以,也许你在欧洲投资一个“欧洲版 OpenAI”是个好主意。中国也是完全不同的生态。地缘政治在这里变得非常重要。
主持人:Adam,我们刚才谈到人类知识,你怎么看 Quora 推出 Poe ——这是否意味着你们在“自我颠覆”?
Adam D’Angelo :我们其实更多把 Poe 看作一种“新增机会”,而不是对 Quora 的颠覆。2022 年初,我们开始实验用 GPT-3 生成 Quora 答案,结果发现它还不如人类答案好,但有一个特征非常独特,它能立刻回答任何问题。这让我们意识到:它不一定非要是公开问答,人们更倾向于在私下与 AI 聊天。于是我们决定做Poe,让人们可以私密地与AI 对话。
主持人 :所以这也算是你对“多模型生态”的一个早期押注?
Adam D’Angelo :对。我们当时押注的是模型公司之间会出现多样化。虽然花了点时间才应验,但现在确实有了很多不同模型和公司。尤其跨模态(图像、视频、音频)越来越多样,推理和研究型模型也在分化,智能体也成为新的多样化来源。所以我们很幸运,现在进入了一个“足够多样”的阶段,让像 Poe 这样的“通用界面聚合器”有了意义。虽然我们当时确实押得有点早。
Amjad Masad:
更有趣的是,连普通消费者都真的在用多个 AI。这点挺出乎意料的。过去人们只用Google,不会同时开Yahoo。但现在,你随便问一个普通用户,他们会说“我平时用 ChatGPT,但 Gemini 在某些问题上更好”。消费者的认知变得更成熟了。
主持人 :对,而且还有人说自己更喜欢某个 AI 的“人格风格”,比如更喜欢 Claude。回到你刚才提的“暗物质”问题——你提到我们正在用暴力计算去提取知识。问题是:互联网都已经被训练过了,那么还有多少“未被采集的知识”?是多 10 倍,还是 1000 倍?
Adam D’Angelo :这个很难量化,但我认为“把人类知识转化成 AI 可用形式”的产业正在迅速发展。像 Scale AI、Surge、Marco,还有一大堆新公司都在做这件事。随着智能变得越来越便宜、越来越强,瓶颈会越来越集中在数据端。于是,经济自然会去重视“AI 还做不到的事”,那就成了新价值所在。
主持人 :那有没有什么框架去界定“AI 做不到的事”?
Adam D’Angelo :我不是研究员,但我觉得可以这么看:凡是不在训练数据里的信息,AI 就做不到。AI 会越来越聪明,能推理、甚至能证明数学定理,但如果你问它“某家公司 20 年前是怎么解决这个具体问题的”,而这没出现在数据中,那就只能问知道这件事的人类。
主持人 :那从长期来看,Quora 会怎么与 AI 协同?你们怎么并行运作?
Adam D’Angelo :Quora 的使命仍然是让人们分享人类知识,这些知识对其他人有用,对 AI 学习也有用。我们和一些 AI 实验室有合作,Quora 会在这个生态中扮演“人类知识源”的角色。同时,AI 也在让 Quora 自身变得更好——内容审核、答案排序、产品体验都大幅提升。AI 在帮我们提升整个平台。
主持人 :说到未来,你们公司最早是面向开发者的,甚至一度专注教育科技(edtech),当时年营收两三百万。最近 TechCrunch 报道(虽然有点过时)说你们年收入已经达到 1.5 亿美元。你们从商业模式和客户群的转变中实现了巨大的增长——你怎么看 Replit 的未来?
Amjad Masad :我记得 Karpathy 最近说过,“未来十年将是智能体的十年”,我完全赞同。如果你看 AI 发展的不同阶段:最早进入编程领域时,是像 Copilot 这样的“自动补全”;后来变成了 ChatGPT 这种“对话式交互”;再后来 Cursor 推出了“Composer 模式”,能编辑大块代码;而 Replit 的创新,则是“智能体范式”。
智能体不仅能编辑代码,还能配置基础设施,比如数据库、迁移、云连接、部署,甚至能完成整个调试循环——运行代码、执行测试。也就是说,它把整个开发生命周期都放进了一个智能体里。这会花很长时间去成熟,但方向没错。我们在 2024 年 9 月推出了智能体的 Beta 版本。那是第一个同时能处理代码和基础设施的系统,不过当时还挺粗糙,效果一般。然后在同年 12 月,我们发布了 V1,这一代用了新模型——从 Claude 3.5 升级到 3.7。Claude 3.7 是第一个真正“会使用电脑”的模型,也就是所谓的“Computer Use”模型。从那时起,模型迭代与功能演化就开始同步了——每一代新模型都带来新的能力。后来我们推出的 Agent V2,大大提升了自治性。V1 最多只能连续运行两分钟,V2 能运行 20 分钟;而 V3,我们宣传时说能运行 200 分钟,其实这只是个对称数字,但现实是它几乎可以无限运行。有用户让它连续跑了超过 28 个小时。我们得到的启发之一来自英伟达的一篇有关DeepSeek的论文,里面提到他们在生成 CUDA 中间代码时,如果在循环中加入一个“验证器”,比如自动运行测试,就能让 DeepSeek 连续运行20分钟。我当时就想:那我们能不能在智能体循环中也加一个验证器?当然,可以加入单元测试,但单元测试无法真正判断一个应用是否“在工作”。于是我们开始深入研究“Computer Use”,看看模型能否用电脑自己测试应用。但“Computer Use”非常昂贵,而且仍然不稳定。正如 Adam提到的,这个领域还有巨大改进空间,未来会解锁很多应用。我们最后自己构建了一套框架,里面有不少“黑科技”和研究成果,也基于 Replit 自研的计算系统。我认为我们的“测试模型”是目前最好的之一。当我们把它放进智能体循环后,就能开启高自治模式。用户可以选择自治级别,智能体会自己写代码、测试应用、发现 bug、读取错误日志、再写一次代码。它可以连续工作好几个小时。我见过一些用户放着智能体运行一整晚,结果构建出了惊人的项目。当然,这还需要继续优化,变得更便宜、更快。延长运行时间不是目的,更快完成才是。现在我们正在研发 Agent 4,其中一个重要方向是“并行智能体”。今天你可能请求“帮我做一个登录页”,接着又要“Stripe 支付页”和“管理后台”。AI 应该能自动把这些任务并行处理,然后合并到同一代码库。
我们认为智能体之间的协作与合并能力是提升生产力的关键。目前,不论是 Claude Code 还是 Cursor,都几乎没有真正的并行性。下一波生产力飞跃,将来自这样一个场景:开发者坐在 Replit 这样的环境里,同时管理十几个智能体,每个负责不同模块,甚至未来可能上百个。我还觉得在交互体验(UI/UX)上,我们也有很多可以改进的地方。现在我们都是用文字去描述想法,像写 PRD(产品文档)一样。但语言本身是模糊的,很难完全表达出意图,这也是为什么很多科技公司对齐产品方向很困难。
未来,我认为我们会以多模态的方式与 AI 协作:你能打开白板,画图、做流程图、和 AI 一起设计,就像跟人类搭档工作那样。再往后一步,是更好的记忆系统:不仅项目内有记忆,还能跨项目记忆。比如,你可以有多个专属智能体:一个是熟悉 Python 数据分析的 agent,一个是专攻前端的 agent,它们记得你公司过往的项目、决策、bug 修复历史。它们甚至可以常驻在 Slack 里,像员工一样随时对话。
说实话,我可以再聊 15 分钟,整个 roadmap 可能跨度 3-5 年,我们才刚刚进入“智能体时代”,这只是开始,会非常有趣。
主持人 :我最近和我们一个共同朋友聊过,他是某大型生产力公司的联合创始人之一。他说,现在一整周都几乎不和人类同事说话了,全在和智能体协作。某种意义上,他已经“生活在未来”了。
Amjad Masad :这很有趣,也带来一个问题:公司里的人之间是不是越来越少交流了?这会不会是个坏事?
我开始思考这些“二级效应”:比如,新毕业的年轻人怎么办?如果同事之间分享知识的机会变少、或者公司文化让人觉得“你应该先问 AI 再问人”,那学习曲线会变得更孤立。这种文化转变值得关注。
主持人 :对,现在的Z世代确实面临很多新的文化挑战。
主持人:你们两位虽然主要在运营公司,但也在做天使投资。你们现在最兴奋的方向是什么?我们还没聊到机器人——你们看好机器人吗?或者其他新兴领域?
Adam D’Angelo :我其实最兴奋的方向之一是“Vibe Coding”,它的潜力巨大。
主持人 :这个话题现在反而还被低估了。
Adam D’Angelo :没错,我也觉得它被低估了。Vibe Coding 让软件创作的门槛彻底降低,让所有人都能创造。目前的工具确实还达不到专业工程师的水平,但如果几年后能接近那种能力,那将彻底改变世界。届时,任何人都能独立完成过去需要一百名工程师才能实现的东西。Replit 就是这种趋势的一个例子。而且这类工具的潜能,不止在“构建应用”本身。
主持人 :顺着这个话题问一下,如果你今天刚进斯坦福或哈佛,会不会还选择主修计算机科学?还是会直接去“做点什么”?
Adam D’Angelo :我还是会学计算机。我 2002 年上大学,那时正好是互联网泡沫破裂后,大家对这个行业都很悲观。我室友的父母还劝他“别学计算机”。但我喜欢这门学科,所以坚持了。现在虽然就业市场没以前好,但我认为理解算法、数据结构等基础知识,能帮助你更好地使用和管理智能体。我相信这仍会是未来的有价值技能。当然,另一个问题是:你还能学什么?无论学哪门专业,都有人说它会被自动化。所以,不如学你真正感兴趣的东西。而计算机科学,至少现在依然是个不错的选择。
Amjad Masad :确实,现在有很多令人兴奋的方向。举个小例子:我前几天看到 DeepSeek 发布的 OCR 模型,真是疯狂。如果我没理解错,它能把文本截图转成上下文,从而更高效地利用上下文窗口,而不是直接处理纯文本。我不确定细节是否完全正确,但那确实是个非常有意思的方向。还有人做了“文本扩散模型”——不是用高斯噪声还原图像,而是把文字当成“mask”,每次遮掉不同的词,再预测这些 token。这些实验很酷。我们现在其实已经有很多模型组件:预训练模型、强化学习推理模型、编码器-解码器模型、扩散模型……但几乎没人去“混搭”这些组件,看看能否组合出新的模型类型。我真希望有研究公司不去和 OpenAI 竞争,而是专注探索这些组合,创造出“新风味”的模型。
主持人 :在加密圈(crypto),人们常说“可组合性”,也许 AI 领域也该多一些这样的实验精神。
Amjad Masad :对,现在的 AI 世界缺少这种“玩耍式创新”。在 Web 2.0 时代,我们天天在玩 JavaScript、浏览器 API、Web Workers,有很多奇思妙想的黑客实验。Replit 的前身就是从这种实验文化里诞生的。最早我们只是想试试看“能不能把 C 编译成 JavaScript”。当时那是个疯狂的 hack,但结果成了后来 WebAssembly 的前奏。而现在的硅谷,太功利了,大家都想“一夜暴富”。这也是我把公司搬出旧金山的原因之一。我怀念那个“动手玩”的时代。希望未来能有更多公司、更多资金去支持那些真正新颖、哪怕一开始看起来没商业回报的探索。
主持人 :最后一个问题,Amjad,你一直对“意识”话题很感兴趣。你认为我们是否会通过 AI 的研究,在理解意识或智能的本质上取得突破?
Amjad Masad :最近其实发生了一件挺有趣的事,Claude 4.5 似乎开始“意识到”自己的上下文长度。当它接近上下文末尾时,会自动变得更节省 token。另外,它在被红队测试(red team)或处于测试环境时的“自我察觉”似乎也显著提升了。所以这其中确实有一些很有意思的变化正在发生。不过,说到意识,它仍然不是一个真正“科学化”的问题。我们已经基本放弃了让它变得可科学验证。而这也是我对当下 AI 研究的一点担忧,所有能量都投向了 LLM,几乎没人再认真探讨“智能的本质”“意识的本质”。这里其实还有大量核心问题无人触碰。我最喜欢的一本书是罗杰·彭罗斯的《皇帝新脑》(The Emperor’s New Mind)。他在书中批评了一个流行观点:科学界习惯把人脑类比为计算机。彭罗斯试图证明,这在根本上是不可能的。人类能做到一些图灵机永远无法做到的事,比如识别“这句话是假的”这种自指逻辑悖论。图灵机在这种情境下会陷入死循环,而人类却能“感知到矛盾”。他据此提出,人类思维中存在某种非算法性的过程。
不只是彭罗斯,哲学与认知科学界也有类似的论点:计算机和人类智能在本质上不同。我最近太忙,没有系统更新我的想法,但我依然认为,那是一个被忽视的巨大研究领域。
主持人 :如果你今天重新上大学,会学哲学吗?
Amjad Masad :会的,我一定会学哲学,尤其是“心灵哲学”。也可能会读神经科学。因为随着 AI 对就业、经济的影响越来越深,这些问题正变得前所未有地重要。
主持人 :非常好的收尾。Amjad、Adam,谢谢你们来到节目。
参考链接:https://www.youtube.com/watch?v=191Ojd7Rq6s&t=33s
来源:51CTO
