1 Altman 确认采用 Anthropic 的 MCP 协议摘要:美国当地时间 3 月 26 日,OpenAI CEO Sam Altman 在 X(原 Twitter)帖子中确认,OpenAI 将在旗下产品(包括 ChatGPT 桌面应用)中集成 Anthropic 的模型上下文协议(MCP)。
美国当地时间 3 月 26 日,OpenAI CEO Sam Altman 在 X(原 Twitter)帖子中确认,OpenAI 将在旗下产品(包括 ChatGPT 桌面应用)中集成 Anthropic 的模型上下文协议(MCP)。
Altman 指出,“MCP 的市场反响很好,我们也很高兴能在自家产品中支持这项协议。目前此协议已经在 Agents SDK 中开放,对于 ChatGPT 桌面版应用以及 Responses API 的支持也即将推出!”
MCP 允许模型从业务工具和软件等来源处提取数据以完成任务,并可从内容存储库和应用开发环境中提取数据。在该协议的支持下,开发人员能够在数据源和 AI 驱动的应用程序(例如聊天机器人)之间建立起双向连接。
开发人员可以通过“MCP 服务器”公开数据并构建起“MCP 客户端”——例如实例、应用程序和工作流,再根据命令接入到这些服务器。自从 Anthropic 开源 MCP 的这几个月来,包括 Block、Apollo、Replit、Codeium 和 Sourcegraph 在内的多家厂商均已为其平台添加了 MCP 支持。
Anthropic 公司首席产品官 Mike Krieger 在 X 上发帖表示,“很高兴看到大家对 MCP 的喜爱延伸到 OpenAI——热烈欢迎!MCP 已经成为一项蓬勃发展的开放标准,目前已经吸引到成千上万的集成且仍在不断增长。只有全面接入已经存在的数据和软件当中,大语言模型才能最大程度发挥作用。”
OpenAI 则表示,他们打算在未来几个月内陆续分享关于 MCP 支持计划的更多信息。
OpenAI 的集成意味着开发者可以更轻松地构建能调用实时数据的智能助手,比如企业级聊天机器人或自动化工作流。
2 网友怎么看?OpenAI 宣布支持 Anthropic 推出的模型上下文协议(MCP),在开发者社区引发激烈讨论。这一协议被宣传为"AI 工具集成的新标准",但其实际价值正面临两极评价。
在 X 上,有用户认为,MCP 的到来,是告别“LangChain 地狱”的解放。MCP 最直接的吸引力在于其宣称能替代 LangChain 等传统工具链。“LangChain 是个臃肿的噩梦,”一位 Hacker News 用户说道,“招聘要求里还把它列为必备技能,恰恰说明行业里充斥不懂技术的人。” MCP 通过标准化接口分离 AI 核心与工具,开发者可以动态添加各类功能模块,理论上使大模型应用扩展更灵活。
尽管支持者称赞 MCP 的客户端 - 服务器架构创新,但批评者指出其核心功能并无本质突破。“这不过是把工具调用标准化,”一位机器学习架构师说道,“LangChain、SmolAgents 等库早已用不同方式实现了类似功能,”。实验数据显示,采用 MCP 的代理在工具选择准确率上仅提升 3%,幻觉问题依然存在。
行业观察家注意到,MCP 的热度部分源于技术圈的跟风心理。“只要抛出‘协议’、‘服务器’这些术语,工程师们就会兴奋”。一位技术评论员引用了 Joel Spolsky 的经典比喻,这让人想起那些痴迷架构却忽视实际问题的‘架构宇航员’。“Anthropic 的营销资料中,‘双向连接’、‘标准化协议’等术语出现频率高达每百字 7.8 次,远超技术白皮书平均水平。
连 AI 大神 Andrej Karpathy 也发表了自己关于 MCP 的看法,Karpathy 认为,MCP 没什么用,赶快停止吧。
在 Hacker News 社区中,也有不少用户对 MCP 的实用价值提出质疑,有位用户坦然,就是他自己的团队也会“跟风”部署实施,但这并不是最佳方案。
“我完全同意(对 MCP 的批评)。MCP 的功能设计过度复杂,实际优势并不明显。它要求开发者自己定制工具,开发和调试都会浪费大量时间。
严格来说,MCP 甚至算不上真正的技术协议——更像是一套行业约定俗成的规范。虽然我们团队也会跟进实施(毕竟行业都在用),但我始终认为这不是最佳方案。相比之下,基于 HTTP 的 OpenAPI 服务简单得多,而且所有主流框架都已经原生支持。
除非把 MCP 简化到 STDIO(标准输入输出)那种级别的易用性,否则我实在看不出它的必要性。”
3 MCP 是什么?MCP 全称为 Model Context Protocol(模型上下文协议),最初由 Anthropic 提出并开源,简单来说,就是构建为 AI 助手提供额外背景信息的工具的标准方法。
为什么 Anthropic 会提出这样一种协议?
Anthropic 认为你不需要依赖 LangChain 或 LlamaIndex 这样的库来集成大语言模型(LLM)和外部工具(比如向量数据库、文件系统或文档)。
他们的理念是:任何能给 AI 助手提供额外信息或功能的东西,都可以直接变成一个 API 工具,让 LLM 自己去调用。比如:你的向量数据库可以是一个工具,文件系统访问也可以是一个工具。
这样一来,在构建 AI 助手(或叫 AI 代理)时,工具调用就成了统一所有功能的核心方式,而不需要依赖复杂的中间框架。Anthropic 鼓励开发者自己按需定制集成,而不是依赖现成的库。
Anthropic 在一篇博客文章中指出,尽管 AI 助手正在被广泛采用,并且模型能力(如推理和质量)在快速进步,但即使是最高级的模型仍然受困于数据隔离问题——它们被限制在信息孤岛和旧有系统中。每次接入新的数据源都需要定制化开发,导致真正互联的 AI 系统难以规模化扩展。
而 MCP(Multi-Connection Protocol) 旨在解决这一问题。它提供了一种协议,允许开发者在数据源和 AI 应用(如聊天机器人)之间建立双向连接。具体来说,开发者可以通过 MCP 服务器 对外提供数据访问能力,然后构建 MCP 客户端(如应用程序或自动化工作流),按需连接这些服务器。
MCP 可以让 AI 系统更灵活、高效地集成各类数据源,打破信息孤岛的限制。
行业分析认为,此举可能加速 AI 助手在复杂场景(如金融、医疗等)的落地,同时降低企业整合 AI 技术的门槛。
4 技术突破还是新瓶旧酒?事实上,Anthropic 在 2024 年 11 月宣布了这一协议时行业内对此的反应稍显冷淡。但现在 MCP 正在流行,已经超过了 LangChain,并有望很快超越 OpenAPI 和 CrewAI。主要的 AI 参与者和开源社区都在支持 MCP,认为它是构建代理 AI 系统的潜在游戏规则改变者。沉寂一年多,MCP 为什么突然火了?
有人认为,MCP 之所以能火起来,有几个主要原因:
集成问题解决器 :AI 代理和代理工作流成为 2023~2024 年的主要流行语,但它们的致命弱点仍然存在:将这些代理与现实世界的业务系统和数据集成。最初,人们将注意力集中在模型功能和提示技术上,而不是集成上。MCP 通过定义“如何将现有数据源”(文件系统、数据库、API 等)连接到 AI 工作流中,直接解决了这一差距。随着人们消化了这一点,MCP 开始被视为严肃的、可用于生产的 AI 代理所缺失的一块拼图。(这是 HumanX 会议的要点之一:近年来,我们主要专注于构建单独的 AI 模型,每个模型都专门用于特定任务。但随着复杂性和需求的增长,正在向集成系统转变——多个专门模型、软件组件、API、数据源和接口的编排协同工作。)
社区和采用 :在短短几个月内,MCP 从概念发展成为一个不断发展的生态系统。早期采用者包括 Block (Square)、Apollo、Zed、Replit、Codeium 和 Sourcegraph 等公司,他们开始整合 MCP 以增强其平台。快进到 2025 年,生态系统已呈爆炸式增长 - 到 2 月,已有 1000 多个社区构建的 MCP 服务器(连接器)可用。显然,随着行业朝着更加集成和情境感知的 AI 迈进,MCP 引起了共鸣。这种网络效应使 MCP 更具吸引力:通过 MCP 提供的工具越多,采用该标准就越有用。
事实上的标准势头 :与另一个专有 SDK 或一次性框架不同,MCP 是开放的且与模型无关,并且得到了主要 AI 参与者的支持。这意味着任何 AI 模型(Claude、GPT-4、开源 LLM 等)都可以使用 MCP,任何开发人员或公司都可以在未经许可的情况下创建 MCP 集成。社区中的许多人现在认为 MCP 可能是标准化 AI 系统如何连接外部数据的竞赛中的赢家(就像 USB、HTTP 或 ODBC 如何成为其领域中无处不在的标准一样)。
快速发展和教育 :Anthropic 并非只是发布了 MCP 就放弃了;他们一直在积极改进它并教育开发人员。甚至在 3 月中旬的 AI 峰会上,Anthropic 的 Mahesh Murthy 举办了一场广为流传的研讨会,也一定程度加速了 MCP 的采用。而随着 OpenAI 的采用,这项协议的影响力还在扩大。
来源:商财洞察君