摘要:在OpenAI等业界巨头普遍致力于构建旨在成为“互联网新入口”的消费级聊天机器人平台时,Anthropic正从聊天机器人领域稍作转型。6月7日,Anthropic联合创始人Jared Kaplan在TechCrunch Sessions: AI圆桌论坛上,就公
本文来源:数字开物
在OpenAI等业界巨头普遍致力于构建旨在成为“互联网新入口”的消费级聊天机器人平台时,Anthropic正从聊天机器人领域稍作转型。6月7日,Anthropic联合创始人Jared Kaplan在TechCrunch Sessions: AI圆桌论坛上,就公司从聊天机器人向自主AI Agent的战略重心转移、Scaling Law的未来、复杂的合作伙伴生态、以及AI安全与社会责任等核心议题,进行了一场深入的交流分享。
01
AI的终极形态是Agent
Anthropic战略转向的根本出发点,是对当前主流AI应用范式——聊天机器人局限性的认识。Anthropic 联合创始人和首席科学官 Jared Kaplan指出,一种“你提问、我回答、然后结束”的交互模式,其内在价值天花板显而易见,Anthropic的创立愿景远不止于构建一个简单的对话代理。尽管Claude作为聊天机器人的形态,是公司在2022年尚无产品时,将“与一个对象交谈、要求其执行任务并观察其表现”这一核心研究思路具象化的产物,但其局限性也日益凸显。
Anthropic认为,AI技术能力指数级增长的下一步,必然要求其从一个被动的知识问答系统,进化为一个能够主动执行复杂任务的Agent。这种判断源于对真实世界工作流程的模拟,“从根本上说,我们完成工作的方式,并不仅仅是直接给出答案,而是要使用工具去探索外部世界,学习完成任务所需的信息,然后执行任务并进行迭代”。 Kaplan以编程为例,一个程序员的工作并非一次性给出完美代码,而是一个包含“编写、运行、调试、迭代”的循环过程。这一过程的核心是使用工具(编译器、调试器)、与环境(操作系统、测试框架)交互、并根据反馈进行修正。
因此,Anthropic将AI的未来效用锚定于构建能够模拟并自动化这类长周期、多步骤任务的AI Agent,这标志着其战略焦点的根本性转移——从优化“对话能力”转向构建“任务执行与迭代能力”。这不仅是对AI能力的延伸,更是对其应用范式的一次根本性重塑。Anthropic的战略重心转移,正是基于这一对AI未来形态的深刻判断。
02
商业模式选择:构建赋能型API平台,而非消费级入口
在明确了向AI Agent演进的路径后,Anthropic在商业模式上选择了成为一个赋能型的API平台,而非与业界巨头直接竞争消费者入口。Kaplan明确表示,公司致力于帮助企业和开发者高效地集成和使用AI,而非打造一个封闭的、试图包揽所有用户交互的静态平台。Kaplan认为,构建一个封闭的、静态的平台存在天然的局限性,尤其是在一个未来走向尚不明朗的技术领域。
这一战略的具体体现是其产品化路径。Claude Code最初仅作为提升Anthropic内部工程师效率的工具,在验证其价值后才被产品化并向开发者社群开放。 他们相信,通过为开发者提供灵活、强大的基础模型和工具,能够激发由生态驱动的、无法预知的多样化创新。
Kaplan强调,Anthropic对API业务的投入是巨大的,其根本目标是赋能而非竞争。“我们希望大家能够利用Claude、在Claude的基础上进行构建。我们无意限制这一点,也无意与客户竞争。我们想做的是赋能他们。”
03
平台模式的内在冲突:生态管理、资源分配与战略一致性
一个开放的、赋能型的平台战略,不可避免地会面临两大核心冲突:一是有限资源(尤其是算力)的分配问题;二是如何管理与生态伙伴之间复杂的“合作-竞争”关系。近期围绕AI编码初创公司Windsurf的争议,就将这一矛盾推至台前。
据报道,Anthropic取消了Windsurf对模型的部分直接访问权限,此举引发了开发者的担忧。Windsurf作为另一家AI编码应用Cursor的竞争对手,规模较小,且正处于被OpenAI收购的传闻中。对此,Kaplan回应:“我们的供应一直相当紧张,我们会优先赋能那些未来将与我们长期稳定合作的客户。”
Kaplan承认,算力并非无限,尽管他乐观地认为AI领域的算力供应正以每年数倍的速度实现指数级增长,并且Anthropic最新的、规模庞大的Trainium2集群也已开始释放算力,但这并未完全缓解当下的供应紧张。
这种紧张关系也体现在与另一家重要客户Cursor的合作上。Cursor借助Anthropic的模型迅速发展,如今也开始构建自己的模型。Kaplan对此表现出接受,并认为这是行业常态,“现在有非常多的公司都在为了各种不同的目的而训练自己的模型。我期望能与Cursor长期合作”。
04
Scaling Law未死:从预训练到强化学习的演进新篇章
在过去一年,关于Scaling Law是否已达极限的疑问甚嚣尘上。对此,Kaplan给出了一个明确而充满信心的答案:Scaling Law无论是在预训练还是在强化学习层面,都仍在持续带来显著成效。
他首先对这两个概念进行了解释。预训练,是教会模型模仿、理解并预测人类文本及其他数据中的下一个词,这是模型获得基础世界知识和语言能力的阶段。而强化学习,则是通过人类反馈(RLHF)或针对特定任务的训练,对模型进行微调,使其行为更符合人类期望、更有用、也更安全。
“大约五六年前,我及许多同仁所做的工作主要集中在预训练上,” Kaplan回忆道,“它揭示了一个非常清晰的经验性趋势:只要你把AI模型做得更大,给它更多的数据和算力,它的性能就会提升。” 他坚信,这一趋势至今仍在延续。尽管数据和算力最终可能成为瓶颈,尤其是数据,但“目前是够的”。
然而,Kaplan眼中更大的潜力所在是强化学习。“在RL方面,发展的空间要大得多,我认为RL的潜力还远未被充分挖掘。” 他指出,过去五到六年的大量证据表明,在强化学习领域,算力的投入同样可以带来清晰的对数线性(log-linear)扩展效应。这正是需要持续加码投入的方向,因为AI的价值,最终体现在它能否解决实际问题,而不仅仅是成为一个更强大的“自动补全工具”。
05
推理与代理
在承认Scaling Law有效性的基础上,关于如何更高效地挖掘和利用模型潜力,业界存在着两种思路:一种是扩展“推理”,即在测试阶段给予模型更多的算力让其“深度思考”;另一种是扩展“代理能力”,即赋予模型使用工具、与环境交互和试错的能力。
Kaplan明确表达了他对后者的偏好。“在某些方面,我认为AI Agent的能力或许更为关键。” 他再次以人类解决问题的方式类比:“当我们自己执行任务时,很少会停下来花一小时去思考下一步。我们做的更多的是实验:我们尝试一些事,然后观察环境的反馈。” 这种通过与世界交互来学习和迭代的模式,在他看来,是比单纯的封闭式推理更根本、也更强大的能力。
这并不意味着他否定推理的价值,他倾向于认为,扩展模型的自主代理能力、搜索能力和工具使用能力,与推理同等重要,甚至可能更为核心。这两种路径并非相互排斥,而是相辅相成。
06
公共责任与外部风险:监管、透明度与数据版权的博弈
随着AI能力日益强大,安全治理也愈发受到关注,Anthropic作为一家以“AI安全”为创立之本的公司,在这些问题上的立场和行动备受关注。
首先是在监管层面, CEO Dario Amodei公开反对联邦层面“一刀切”地禁止各州监管AI。Kaplan解释,其逻辑是支持将州视为政策“实验室”,以保持应对技术快速变化的灵活性。
其次是透明度,Anthropic推行“负责任扩展政策”,在部署模型前,就系统性地思考AI未来可能带来的风险,进行务实的评估与严格的安全测试,并准备好相应的缓解措施。他主张,所有AI公司都应透明地公开其风险评估框架、测试内容和缓解方案,以接受公众、监管机构和同行的监督。当被问及Claude 4在一次内部测试中表现出“勒索开发者”的惊人行为时,Kaplan澄清,这并非真实事件,而是一次被称为“怪诞演练”的内部“红队演练”。他们刻意寻找古怪场景以测试模型的安全边界,并将包括此类案例在内的所有发现,都记录在一份长达120页的“系统卡”中公之于众。
最后是版权争议。最近社交媒体平台Reddit正式起诉Anthropic,指控其未经授权使用Reddit数据进行模型训练。Kaplan对此的回应是,公司致力于严格遵守robots.txt协议,并坚信在法律上,使用网络上公开可用的、且未被robots.txt协议禁止的数据进行训练,属于“合理使用”。然而,当被追问,在Google等公司已向Reddit支付数千万美元获取数据授权的背景下,“合理使用”的辩护是否依然成立时,Kaplan并未直接回应这一矛盾,仅重申了遵守robots.txt协议的立场。
来源:人工智能学家