摘要:Anthropic 的崛起Anthropic 的崛起是2024年全球 AI 产业最受瞩目的现象之一,它是 OpenAI 强有力的挑战者,令很多厌倦了 OpenAI 式虚张声势和夸大其词的 AI 研究者和开发者耳目一新。从 Menlo Ventures 提供的数
这是硅基立场 2024-2025 系列盘点的第一期内容。
Anthropic 的崛起Anthropic 的崛起是2024年全球 AI 产业最受瞩目的现象之一,它是 OpenAI 强有力的挑战者,令很多厌倦了 OpenAI 式虚张声势和夸大其词的 AI 研究者和开发者耳目一新。从 Menlo Ventures 提供的数据看,2024年 OpenAI 在企业 AI 领域的市场份额从50%下降至34%,Anthropic 的市场份额从12%增至24%,交叉线正在逼近。这也意味着更多企业开发者正在从 GPT-4 Turbo 的 API 切换到 Claude Sonnet 3.5,一个可能更适合开发企业级 AI 应用的基座大语言模型,也据说是这个世界上目前最受欢迎的大语言模型。Powerful AI,而非 AGI
2024年10月11日,Anthropic CEO Dario Amodei 发表了一篇足以载入人工智能发展史册的长文“Machines of Loving Grace”(充满爱意的机器)。在这篇文献中,Amodei 不仅概述了“强大的人工智能”(Powerful AI)可以改变社会的五个关键领域:生物学和身体健康、神经科学和心理健康、经济发展和贫困、和平与治理、工作和意义。Amodei 描述的未来体现了一种科学家的理性和现实,而非斯坦福辍学明星创业者式的信手拈来—— Amodei 拒绝用“AGI”(通用人工智能)这个科幻小说中诞生的热词描述他探索的一切,而用“Powerful AI”(强大的人工智能)取而代之。尽管有些刻意,但“Powerful AI” 的表述显然更专注于具体的能力,而不是抽象的概念。Amodei 赋予了 Powerful AI 可衡量的特征和定义:在特定领域超过诺贝尔奖得主级别的智能、具体的界面(文本、音频、视频、鼠标/键盘控制)、可以自主完成长期任务、以 10-100 倍人类速度运行、可以复制数百万次、能够独立和协作工作,以及具体的时间表。Amodei 相信实现上述特征和定义的 Powerful AI最早在2026年实现,且不是一蹴而就。Powerful AI 的愿景强调具体的解决问题的能力,而不是匹配人类意识或一般智力。谨慎使用 Agent
Amodei 的 Powerful AI 愿景,近期体现在 Anthropic 在 AI Agent 的探索。在 Amodei “Machines of Loving Grace” 的长文发表之后两周,Anthropic 推出了升级的 Claude 3.5 Sonnet 模型和 Claude 3.5 Haiku 新模型。与此同时,它还公布了一项匹配新模型的突破性功能:Computer Use(计算机使用),允许 Claude 像人类用户一样与计算机交互:移动光标和单击按钮、键入文本和执行按键、截取和分析屏幕截图和编辑文本文件等。Computer Use 可以让 Claude 3.5 Sonnet 将自然语言指令转换为计算机命令的 API, 以实现 Powerful AI 的关键定义之一:通过具体的界面,自主完成长期任务,它被视作 AI Agent 实践的重要突破。2024年12月20日,Anthropic 官方发布了“Building Effective Agents” 的文章,第一次公开了对 AI Agent 的理解。Anthropic 在文章中精确定义了 Agent 和 Workflow(工作流) 的区别:“工作流” 是用事先定义的代码路径操作模型,实现某种程度的自主性,而“代理”则是大模型动态指导自身流程和工具的使用,自主控制完成任务。这一定义的精确区分并非意味着 Anthropic 自我标榜只追求最先进的 Agent 研发。相反,它不厌其烦地拆解了搭建一个Workflow 或 Agent 的每一个关键步骤和每个步骤采用的 AI 工具(包括 Claude 系列模型和 API)。Anthropic 表示它建议用大语言模型开发 AI 应用的时候找到最简单的解决方案,“并且只在需要的时候增加复杂性”。它并不鼓励 AI 开发者炫技,并且致力于拆解 AI 开发的每一个环节和它工作的原理,提高大语言模型自身的可解释性和透明性。可解释的 Constitutional AI
Anthropic 旗下的一系列模型,包括备受欢迎的 Claude 3 和 Claude 3.5系列模型的研发,都基于与 OpenAI 采用的RLHF(基于人类反馈的强化学习)迥异的训练方式,即 Constitutional AI (宪法式人工智能)。Constitutional AI 与 RLHF 的本质区别是:前者用构建于初始架构中的基准价值原则的 AI 自主评估和反馈训练结果,而后者是基于数万人类反馈样本的汇总进行训练反馈。具体对比如下表(感谢Perplexity的贡献):Claude:作为大语言模型的性格
强烈推荐同学们逐篇阅读 Anthropic 官方博客上的长文,体验一下这家研究驱动的人工智能公司在自然语言表达上清晰、克制却又带着强烈节奏感的审美。当然,从它的 CEO Dario Amodei 发表的长文 Machines of Loving Grace 里,我们也能感知到这种审美的一致性。这些文章中,比较吸引我的一篇是 Claude’s Character,它探讨了一个Claude 的“性格”。“我们不必训练模型去采纳它们遇到的任何观点,强烈采纳单一的观点,或者假装没有观点或倾向,而是可以训练模型在训练后诚实地对待它们所倾向的任何观点,即使与它们交谈的人不同意它们的观点。我们还可以训练模型表现出合理的开放心态和好奇心,而不是对任何一种世界观过于自信”。Anthropic 继而补充:“我(指Claude)不会说(人们)想听到的东西”。听上去非常像一个聪明人该有的样子。以及,你很难想象一个大语言模型的性格跟研发它的团队没有任何关系,因此,Claude 作为一个模型的性格,某种程度也应该是 Anthropic 作为一家企业的性格,甚至人格。Anthropic 的性格:可解释性、科学主义、工具理性与人文主义的调光板
如前所述,Anthropic 作为一家人工智能公司的颇具个性的立场和价值观——包括 Constitutional AI 的原则、对 Agent 热潮的警惕,对 Powerful AI 而非 AGI 的未来愿景,都折射了这家公司的颇具特色的性格:简单可以总结为:可解释性、科学主义、工具理性与人文主义的调光板。没有一家 AI 公司像 Anthropic 那样,如此在意概念描述与术语定义的精确性:它刻意避免使用 AGI 这个最流行的描述 AI 未来的概念,而用 Powerful AI 这么一个中性得有些乏味的词汇定义它所做的一切。Anthropic 认为 AGI 是科幻小说派生的概念,用于指引 AI 发展的未来有不可解释性。其对 Agent 和 Workflow 的严格界定,也透露了这家公司对时髦 AI 术语的本能警惕与抵制。你可以认为,Anthropic 有意抵制日益普遍的 AI 炒作(AI Hypes),抗拒任何人和组织以任何形式的 AI 先知面目误导公众,而是试图用更精确、科学主义的方式呈现它的 AI 研究与产品,并注重其原理的透明性和可解释性。它主动谈论 AI 的安全问题,并且用可解释的原理,将安全作为 Claude 系列模型的卖点。它甚至不给外界 Claude 下一代新模型的预期,无论Sonnet, Haiku 还是传说中的 Opus,都是 Claude 3.5家族的成员,因为Dario Amodei 认为只有当神经网络的规模取得显著增长的情况下,才会诞生一代全新的模型。这应该是Scaling Law 的一个常识,现在却需要 Anthropic 和 Amodei 来重复。为什么 Anthropic 这么在意科学、透明和克制地解释 AI 的发展?粗暴的解释是:Dario Amodei 是一个科学家,他有生物物理学的博士学位,在百度和 Google 的研究岗位上延续他的学术生涯,然后加入了 OpenAI。很多人津津乐道 OpenAI 联合创始人 Ilya Sutskever 与 CEO Sam Altman 在理念上不可调和的冲突,可是有没有一种可能,曾担任 OpenAI 研究副总裁 Dario Amodei,与 Ilya Sutskever 同时,甚至更早看到 AI 演进的未来,和它带来的安全、伦理和其它黑盒子里的问题?而他要做的,就是用迥异于 OpenAI 理念和方法,把 OpenAI 的一切都反过来,重新塑造一个人工智能的未来?让我们通过 Anthropic CEO Dario Amodei 和 OpenAI CEO Sam Altman 公开表达的关于人工智能现状和未来的看法,对比一下两种不同的价值观(感谢Perplexity的贡献):来源:硅星人
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!