摘要:虽然RAG(检索增强生成)和Agentic AI(代理式 AI)为增强 AI 检索能力与工具交互能力提供了方向,但它们的实现目前依然零散,常是定制开发、难以规模化的解决方案。
OSCHINA
大型语言模型(LLMs)强大但受限于上下文。它们:
→ 缺乏对业务、数据和工作流程的感知
→ 独立运行,容易产生通用、不相关的回应
→ 无法访问实时外部知识
虽然RAG(检索增强生成)和Agentic AI(代理式 AI)为增强 AI 检索能力与工具交互能力提供了方向,但它们的实现目前依然零散,常是定制开发、难以规模化的解决方案。
什么是 Model Context Protocol(MCP)?
Anthropic 推出的 MCP(模型上下文协议),旨在标准化 RAG 和代理式 AI 的实现方式,实现 LLM 应用的:
✅ 可扩展性
✅ 稳定性
✅ 深度上下文感知
MCP 是如何工作的?
1. 主机环境(Host Environment
LLM 应用所运行的基础设施,包括:
实体机器 – 工作站、本地服务器
虚拟机 – 云端 VM、远程服务器
容器 – Docker、Kubernetes
2. 主机应用(Host)
LLM 驱动的实际应用,比如:
聊天机器人、搜索助手
工作流自动化 AI 代理
带代码补全和调试功能的 IDE
3. MCP 客户端(Clients)
MCP 客户端运行在主机应用内,向 MCP 服务器请求外部数据或操作指令。
4. MCP 服务器(Server)
MCP 服务器在 LLM 和外部知识源之间架起一座桥梁,连接:
各类 API – CRM、ERP、企业工具
数据库 – 业务数据库、数据仓库
代码仓库与本地文件
实时事件流 – SSE、WebSocket
MCP 不止用于数据检索,还支持执行能力:
修改配置
运行脚本
触发自动化流程
5. 传输层(Transport Layer)
MCP 通过结构化通信协议(如JSON-RPC 2.0)进行数据交换,支持:
标准输入输出(Stdio)
服务器推送事件(SSE)
可自定义的实现(根据具体需求)
MCP 将如何改变 AI?
MCP 代表了 AI 演进的关键一环,它为核心 AI 模式提供标准协议:
✔RAG– 从外部检索知识的模式
✔Agentic AI– 让 AI 能够与工具交互的模式
✔MCP– 将这两者规范化、结构化的实现协议
,让开发者可以借助 AI 助手直接访问代码仓库,读取文件内容、查看 PR 变更、理解 Issue 描述,甚至直接操作代码管理任务,比如创建 PR、合并分支、发布版本等。
简单来说,Gitee MCP Server 让 AI 不再是「代码的旁观者」,真正成为了参与软件开发过程的智能助手。
开源地址:
来源:孙哥讲科技说