跳到主要内容
Model Context Protocol (MCP) 是一种开放协议,可实现 LLM 应用程序与外部数据源和工具之间的无缝集成。无论您是在构建 AI 驱动的 IDE、增强聊天界面,还是创建自定义 AI 工作流,MCP 都提供了一种标准化的方式,将 LLM 与其所需的上下文连接起来。 本规范基于 schema.ts 中的 TypeScript 模式,定义了权威的协议要求。 有关实现指南和示例,请访问 modelcontextprotocol.io。 本文件中的关键词“MUST”(必须)、“MUST NOT”(不得)、“REQUIRED”(强制)、“SHALL”(应)、“SHALL NOT”(不应)、“SHOULD”(推荐)、“SHOULD NOT”(不推荐)、“RECOMMENDED”(建议)、“NOT RECOMMENDED”(不建议)、“MAY”(可以)和“OPTIONAL”(可选)应按照 BCP 14 [RFC2119] [RFC8174] 中的描述进行解释,当且仅当它们以全大写形式出现时(如本文所示)。
MCP 为应用程序提供了一种标准化的方式来:
- 与语言模型共享上下文信息
- 向 AI 系统开放工具和能力
- 构建可组合的集成和工作流
该协议使用 JSON-RPC 2.0 消息在以下组件之间建立通信:
- Hosts (宿主): 发起连接的 LLM 应用程序
- Clients (客户端): 宿主应用程序内部的连接器
- Servers (服务器): 提供上下文和能力的服务器
MCP 从 Language Server Protocol (LSP) 中汲取了灵感,LSP 标准化了如何在整个开发工具生态系统中添加对编程语言的支持。以类似的方式,MCP 标准化了如何将额外的上下文和工具集成到 AI 应用程序的生态系统中。
关键详情
基础协议
服务器向客户端提供以下任一特性:
- Resources (资源): 供用户或 AI 模型使用的上下文和数据
- Prompts (提示词): 为用户提供的模版化消息和工作流
- Tools (工具): 供 AI 模型执行的函数
客户端可以向服务器提供以下特性:
- Sampling (采样): 由服务器发起的智能体行为和递归 LLM 交互
- Roots (根路径): 由服务器发起的对 URI 或文件系统边界的查询,以在其中运行
- Elicitation (引导): 由服务器发起的向用户请求额外信息的操作
附加实用程序
安全与信任安全
Model Context Protocol 通过任意数据访问和代码执行路径实现了强大的功能。随之而来的是重要的安全和信任考虑,所有实现者都必须谨慎对待。
核心原则
-
用户同意与控制
- 用户必须明确同意并理解所有数据访问和操作
- 用户必须保留对共享哪些数据以及采取哪些行动的控制权
- 实现者应提供清晰的 UI 用于审查和授权活动
-
数据隐私
- 宿主在向服务器暴露用户数据之前必须获得用户的明确同意
- 未经用户同意,宿主不得将资源数据传输到其他地方
- 用户数据应受到适当的访问控制保护
-
工具安全
- 工具代表任意代码执行,必须以适当的谨慎态度对待。
- 特别是,对工具行为的描述(如注释)应被视为不可信的,除非是从可信的服务器获取的。
- 宿主在调用任何工具之前必须获得用户的明确同意
- 用户在授权使用之前应了解每个工具的作用
-
LLM 采样控制
- 用户必须明确批准任何 LLM 采样请求
- 用户应该控制:
- 是否进行采样
- 实际发送的提示词内容
- 服务器可以看到哪些结果
- 该协议有意限制了服务器对提示词的可见性
实施指南
虽然 MCP 本身无法在协议层面强制执行这些安全原则,但实现者应当 (SHOULD):
- 在应用程序中构建稳健的同意和授权流程
- 提供安全影响的清晰文档
- 实施适当的访问控制和数据保护
- 在集成中遵循安全最佳实践
- 在功能设计中考虑隐私影响
了解更多
探索每个协议组件的详细规范