模型上下文协议(MCP):你需要了解的一切

B站影视 内地电影 2025-04-01 15:33 1

摘要:虽然RAG(检索增强生成)和Agentic AI(代理式 AI)为增强 AI 检索能力与工具交互能力提供了方向,但它们的实现目前依然零散,常是定制开发、难以规模化的解决方案。

OSCHINA

大型语言模型(LLMs)强大但受限于上下文。它们:

→ 缺乏对业务、数据和工作流程的感知
→ 独立运行,容易产生通用、不相关的回应
→ 无法访问实时外部知识

虽然RAG(检索增强生成)和Agentic AI(代理式 AI)为增强 AI 检索能力与工具交互能力提供了方向,但它们的实现目前依然零散,常是定制开发、难以规模化的解决方案。

什么是 Model Context Protocol(MCP)?

Anthropic 推出的 MCP(模型上下文协议),旨在标准化 RAG 和代理式 AI 的实现方式,实现 LLM 应用的:

✅ 可扩展性
✅ 稳定性
✅ 深度上下文感知

MCP 是如何工作的?
1. 主机环境(Host Environment

LLM 应用所运行的基础设施,包括:

实体机器 – 工作站、本地服务器

虚拟机 – 云端 VM、远程服务器

容器 – Docker、Kubernetes


2. 主机应用(Host)

LLM 驱动的实际应用,比如:

聊天机器人、搜索助手

工作流自动化 AI 代理

带代码补全和调试功能的 IDE


3. MCP 客户端(Clients)

MCP 客户端运行在主机应用内,向 MCP 服务器请求外部数据或操作指令。

4. MCP 服务器(Server)

MCP 服务器在 LLM 和外部知识源之间架起一座桥梁,连接:

各类 API – CRM、ERP、企业工具

数据库 – 业务数据库、数据仓库

代码仓库与本地文件

实时事件流 – SSE、WebSocket

MCP 不止用于数据检索,还支持执行能力:

修改配置

运行脚本

触发自动化流程


5. 传输层(Transport Layer)

MCP 通过结构化通信协议(如JSON-RPC 2.0)进行数据交换,支持:

标准输入输出(Stdio)

服务器推送事件(SSE)

可自定义的实现(根据具体需求)


MCP 将如何改变 AI?

MCP 代表了 AI 演进的关键一环,它为核心 AI 模式提供标准协议:

✔RAG– 从外部检索知识的模式
✔Agentic AI– 让 AI 能够与工具交互的模式
✔MCP– 将这两者规范化、结构化的实现协议

,让开发者可以借助 AI 助手直接访问代码仓库,读取文件内容、查看 PR 变更、理解 Issue 描述,甚至直接操作代码管理任务,比如创建 PR、合并分支、发布版本等。

简单来说,Gitee MCP Server 让 AI 不再是「代码的旁观者」,真正成为了参与软件开发过程的智能助手。

开源地址:

来源:孙哥讲科技说

相关推荐