摘要:最近,Anthropic 推出的MCP 协议(Model-Compute Protocol)引起了广泛讨论。有人说它是 AI 行业的新拐点,也有人认为它不过是技术优化的进一步探索。那么,MCP 到底是什么?它和现有的大模型技术有何不同?未来又能带来哪些可能性?
最近,Anthropic 推出的 MCP 协议(Model-Compute Protocol)引起了广泛讨论。有人说它是 AI 行业的新拐点,也有人认为它不过是技术优化的进一步探索。那么,MCP 到底是什么?它和现有的大模型技术有何不同?未来又能带来哪些可能性?本文将为你一一解读。
MCP 的诞生并没有像一些自媒体宣传的那样“颠覆 AI 行业”。它的核心目标,是让大语言模型能够更好地调用外部服务,扩展自己的能力。实际上,这种思路并不新颖,与 OpenAI 推出的 Function Calling 功能非常相似。
简单来说:
Function Calling:大模型通过 HTTP 请求调用外部 API。MCP:大模型通过 RPC(远程过程调用) 请求外部服务。两者的本质是一样的:大模型无法独自解决所有问题,需要借助外部数据或计算能力来补充回答。但 MCP 是在 RPC 的基础上引入了一套标准协议,让这种调用变得更规范、更有扩展性。
调用方式不同Function Calling 的实现比较简单,开发者只需编写一个 API 接口,大模型通过 HTTP 请求这个接口即可完成调用。而 MCP 的接入相对复杂,第三方需要构建一个服务,按照 MCP 协议实现 RPC 方法。大模型客户端需要在启动时发现服务并建立连接,才能在对话中调用。接入复杂度对比Function Calling:像拼装乐高积木,直接配置 HTTP 请求参数即可。MCP:更像是搭建一套传输网络,第三方需要写服务、实现协议,还要配置服务发现等。服务发现与匹配
无论 Function Calling 还是 MCP,最终目的都是让大模型通过用户提问匹配到最适合的服务。但这个过程依然面临巨大挑战,比如:如何在海量服务中快速找到与用户问题相关的那一个?如何理解用户意图,避免匹配错误?
目前的解决方案:Anthropic 和 OpenAI 都采取了类似策略,允许用户在配置文件中提前定义可用服务,然后大模型根据上下文自动匹配。
MCP 最大的价值在于,它试图为大模型调用外部服务定义一个 标准协议。可以将其类比为微软推出的 LSP(语言服务器协议)。LSP 解决了代码编辑器如何与编程语言服务交互的问题,而 MCP 旨在规范大模型与外部服务的协作。
然而,MCP 面临一个更大的挑战:
编程语言的种类有限,社区很快就能支持所有语言服务。外部服务的数量却是“海量”的,MCP 如何解决服务的匹配和路由问题?目前,MCP 的发展依赖两大关键因素:
服务方的支持:是否有足够多的开发者愿意基于 MCP 构建自己的服务。客户端的支持:大模型是否普遍兼容 MCP 协议。如果客户端普及,服务方自然会跟进。开放早:许多应用早早接入,后来的模型要兼容才对生态友好。设计规范:OpenAI 的实现逻辑清晰易用,成为“模范生”。MCP 是否能像 OpenAI 的 API 一样成为新标准,仍需观察。但可以确定的是:
如果主流大模型(如 Claude、ChatGPT 等)普遍支持 MCP,开发者会倾向于按照这套协议设计服务,毕竟“一次开发,多处调用”更划算。如果服务方广泛采用 MCP 协议,其他大模型也会被迫兼容。目前,MCP 还有一些限制,比如:
只能在 Claude 桌面版 使用,尚不支持 Web 端。服务发现和意图识别依赖用户配置,尚未实现完全自动化。尽管如此,MCP 的应用潜力非常大。举个简单的例子:
我自己尝试用 Claude 客户端分析群聊记录,结合 MCP 协议对接了一个分析服务。这种定制化的能力,能大大拓展大模型的应用场景。
MCP 是 Anthropic 在大模型生态建设上的重要探索,为 AI 应用的协同提供了一个标准化思路。尽管当前的技术实现还有不足,但它的潜力不可忽视。随着更多服务和客户端的接入,MCP 或许能成为 AI 行业的一项重要基石。
对于开发者而言,MCP 带来了新的可能;而对于普通用户,MCP 的终极目标是让 AI 更加智能、高效,真正融入日常生活。未来,它会不会“改变 AI 行业的游戏规则”?让我们拭目以待。
来源:高效码农