这篇模型上下文协议 (MCP) 的概述讨论了其范围核心概念,并提供了一个示例来演示每个核心概念。 由于 MCP SDK 抽象了许多问题,大多数开发者可能会发现数据层协议部分最有用。它讨论了 MCP 服务器如何为 AI 应用程序提供上下文。 有关具体的实现细节,请参阅您特定语言 SDK 的文档。

范围

模型上下文协议包括以下项目
  • MCP 规范:一份 MCP 规范,概述了客户端和服务器的实现要求。
  • MCP SDK:为不同编程语言实现的 MCP SDK。
  • MCP 开发工具:用于开发 MCP 服务器和客户端的工具,包括 MCP Inspector
  • MCP 参考服务器实现:MCP 服务器的参考实现。
MCP 仅专注于上下文交换的协议——它不规定 AI 应用程序如何使用 LLM 或管理提供的上下文。

MCP 的概念

参与者

MCP 遵循客户端-服务器架构,其中 MCP 主机——一个 AI 应用程序,如 Claude CodeClaude Desktop——与一个或多个 MCP 服务器建立连接。MCP 主机通过为每个 MCP 服务器创建一个 MCP 客户端来实现这一点。每个 MCP 客户端与其对应的 MCP 服务器保持专有的一对一连接。MCP 架构中的关键参与者是:
  • MCP 主机:协调和管理一个或多个 MCP 客户端的 AI 应用程序
  • MCP 客户端:维护与 MCP 服务器的连接,并为 MCP 主机获取上下文以供使用的组件
  • MCP 服务器:向 MCP 客户端提供上下文的程序
例如:Visual Studio Code 充当 MCP 主机。当 Visual Studio Code 与一个 MCP 服务器(如 Sentry MCP 服务器)建立连接时,Visual Studio Code 运行时会实例化一个 MCP 客户端对象,该对象维护与 Sentry MCP 服务器的连接。当 Visual Studio Code 随后连接到另一个 MCP 服务器(如本地文件系统服务器)时,Visual Studio Code 运行时会实例化另一个 MCP 客户端对象来维护此连接,从而保持 MCP 客户端与 MCP 服务器的一对一关系。 请注意,MCP 服务器指的是提供上下文数据的程序,无论它在哪里运行。MCP 服务器可以在本地或远程执行。例如,当 Claude Desktop 启动文件系统服务器时,由于它使用 STDIO 传输,服务器在同一台机器上本地运行。这通常被称为“本地”MCP 服务器。官方的 Sentry MCP 服务器在 Sentry 平台上运行,并使用可流式传输的 HTTP 传输。这通常被称为“远程”MCP 服务器。

分层

MCP 由两个层组成
  • 数据层:定义了基于 JSON-RPC 的客户端-服务器通信协议,包括生命周期管理和核心原语,如工具、资源、提示和通知。
  • 传输层:定义了实现客户端和服务器之间数据交换的通信机制和通道,包括特定于传输的连接建立、消息分帧和授权。
从概念上讲,数据层是内层,而传输层是外层。

数据层

数据层实现了一个基于 JSON-RPC 2.0 的交换协议,该协议定义了消息结构和语义。该层包括
  • 生命周期管理:处理客户端和服务器之间的连接初始化、能力协商和连接终止
  • 服务器功能:使服务器能够提供核心功能,包括用于 AI 操作的工具、用于上下文数据的资源以及用于与客户端进行交互的模板提示
  • 客户端功能:使服务器能够请求客户端从主机 LLM 中采样、从用户处获取输入以及向客户端记录消息
  • 实用功能:支持附加功能,如用于实时更新的通知和用于长时间运行操作的进度跟踪

传输层

传输层管理客户端和服务器之间的通信通道和身份验证。它处理连接建立、消息分帧以及 MCP 参与者之间的安全通信。 MCP 支持两种传输机制:
  • Stdio 传输:使用标准输入/输出流在同一台机器上的本地进程之间进行直接进程通信,提供最佳性能且无网络开销。
  • 可流式 HTTP 传输:使用 HTTP POST 进行客户端到服务器的消息传递,并可选地使用服务器发送事件(Server-Sent Events)实现流式传输功能。此传输方式支持远程服务器通信,并支持标准 HTTP 身份验证方法,包括持有者令牌(bearer tokens)、API 密钥和自定义标头。MCP 建议使用 OAuth 获取身份验证令牌。
传输层从协议层中抽象出通信细节,使得所有传输机制都能使用相同的 JSON-RPC 2.0 消息格式。

数据层协议

MCP 的一个核心部分是定义 MCP 客户端和 MCP 服务器之间的模式和语义。开发者可能会发现数据层——特别是原语集——是 MCP 中最有趣的部分。这是 MCP 中定义开发者可以从 MCP 服务器向 MCP 客户端共享上下文的方式的部分。 MCP 使用 JSON-RPC 2.0 作为其底层 RPC 协议。客户端和服务器相互发送请求并相应地进行响应。当不需要响应时,可以使用通知。

生命周期管理

MCP 是一个,需要生命周期管理。生命周期管理的目的是协商,即客户端和服务器双方都支持的功能。详细信息可以在规范中找到,示例部分展示了初始化序列。

原语

MCP 原语是 MCP 中最重要的概念。它们定义了客户端和服务器可以相互提供什么。这些原语指定了可以与 AI 应用程序共享的上下文信息的类型以及可以执行的操作范围。 MCP 定义了三个服务器可以公开的核心原语:
  • 工具:AI 应用程序可以调用以执行操作的可执行函数(例如,文件操作、API 调用、数据库查询)
  • 资源:为 AI 应用程序提供上下文信息的数据源(例如,文件内容、数据库记录、API 响应)
  • 提示:可重用的模板,有助于构建与语言模型的交互(例如,系统提示、少样本示例)
每种原语类型都有相关的方法用于发现(*/list)、检索(*/get),以及在某些情况下执行(tools/call)。MCP 客户端将使用 */list 方法来发现可用的原语。例如,客户端可以首先列出所有可用的工具(tools/list),然后执行它们。这种设计允许列表是动态的。 举一个具体的例子,考虑一个提供有关数据库上下文的 MCP 服务器。它可以公开用于查询数据库的工具、一个包含数据库模式的资源以及一个包含与工具交互的少样本示例的提示。 有关服务器原语的更多详细信息,请参阅服务器概念 MCP 还定义了客户端可以公开的原语。这些原语允许 MCP 服务器作者构建更丰富的交互。
  • 采样:允许服务器从客户端的 AI 应用程序请求语言模型补全。当服务器作者希望访问语言模型,但又想保持模型独立且不在其 MCP 服务器中包含语言模型 SDK 时,这非常有用。他们可以使用 sampling/complete 方法从客户端的 AI 应用程序请求语言模型补全。
  • 信息获取:允许服务器向用户请求额外信息。当服务器作者希望从用户处获取更多信息或请求确认某个操作时,这非常有用。他们可以使用 elicitation/request 方法向用户请求额外信息。
  • 日志记录:使服务器能够向客户端发送日志消息,用于调试和监控。
有关客户端原语的更多详细信息,请参阅客户端概念

通知

该协议支持实时通知,以实现服务器和客户端之间的动态更新。例如,当服务器的可用工具发生变化时——比如新功能可用或现有工具被修改——服务器可以发送工具更新通知,将这些变化告知已连接的客户端。通知作为 JSON-RPC 2.0 通知消息发送(不期望响应),并使 MCP 服务器能够向已连接的客户端提供实时更新。

示例

数据层

本节提供了一个 MCP 客户端-服务器交互的逐步演练,重点关注数据层协议。我们将使用 JSON-RPC 2.0 消息来演示生命周期序列、工具操作和通知。
1

初始化(生命周期管理)

MCP 以通过能力协商握手进行的生命周期管理开始。如生命周期管理部分所述,客户端发送一个 initialize 请求来建立连接并协商支持的功能。
{
  "jsonrpc": "2.0",
  "id": 1,
  "method": "initialize",
  "params": {
    "protocolVersion": "2025-06-18",
    "capabilities": {
      "tools": {}
    },
    "clientInfo": {
      "name": "example-client",
      "version": "1.0.0"
    }
  }
}

理解初始化交换

初始化过程是 MCP 生命周期管理的关键部分,有几个重要目的
  1. 协议版本协商protocolVersion 字段(例如,“2025-06-18”)确保客户端和服务器都使用兼容的协议版本。这可以防止不同版本尝试交互时可能发生的通信错误。如果未能协商出相互兼容的版本,则应终止连接。
  2. 能力发现capabilities 对象允许各方声明它们支持哪些功能,包括它们可以处理哪些原语(工具、资源、提示)以及是否支持通知等功能。这通过避免不支持的操作来实现高效通信。
  3. 身份交换clientInfoserverInfo 对象提供了用于调试和兼容性目的的身份和版本信息。
在这个例子中,能力协商演示了如何声明 MCP 原语:客户端能力
  • "tools": {} - 客户端声明它可以处理工具原语(可以调用 tools/listtools/call 方法)
服务器能力:
  • "tools": {"listChanged": true} - 服务器支持工具原语,并且当其工具列表发生变化时可以发送 tools/list_changed 通知
  • "resources": {} - 服务器还支持资源原语(可以处理 resources/listresources/read 方法)
初始化成功后,客户端发送一个通知,表示它已准备就绪
通知
{
  "jsonrpc": "2.0",
  "method": "notifications/initialized"
}

这在 AI 应用程序中如何工作

在初始化期间,AI 应用程序的 MCP 客户端管理器与配置的服务器建立连接,并存储它们的能力以备后用。应用程序使用这些信息来确定哪些服务器可以提供特定类型的功能(工具、资源、提示),以及它们是否支持实时更新。
AI 应用程序初始化的伪代码
# Pseudo Code
async with stdio_client(server_config) as (read, write):
    async with ClientSession(read, write) as session:
        init_response = await session.initialize()
        if init_response.capabilities.tools:
            app.register_mcp_server(session, supports_tools=True)
        app.set_server_ready(session)
2

工具发现(原语)

现在连接已建立,客户端可以通过发送 tools/list 请求来发现可用的工具。这个请求是 MCP 工具发现机制的基础——它允许客户端在尝试使用工具之前了解服务器上有哪些可用的工具。
{
  "jsonrpc": "2.0",
  "id": 2,
  "method": "tools/list"
}

理解工具发现请求

tools/list 请求很简单,不包含任何参数。

理解工具发现响应

响应包含一个 tools 数组,该数组提供了关于每个可用工具的全面元数据。这种基于数组的结构允许服务器同时公开多个工具,同时在不同功能之间保持清晰的界限。响应中的每个工具对象都包含几个关键字段:
  • name:服务器命名空间内工具的唯一标识符。这作为工具执行的主键,并且最好是 URI 形式以便更好地进行命名空间管理(例如,com.example.calculator/arithmetic 而不是简单的 calculate
  • title:工具的可读显示名称,客户端可以向用户展示
  • description:详细解释工具的功能和使用时机
  • inputSchema:一个定义预期输入参数的 JSON Schema,可实现类型验证并提供关于必需和可选参数的清晰文档

这在 AI 应用程序中如何工作

AI 应用程序从所有已连接的 MCP 服务器获取可用工具,并将它们组合成一个统一的工具注册表,供语言模型访问。这使得 LLM 能够理解它可以执行哪些操作,并在对话期间自动生成适当的工具调用。
AI 应用程序工具发现的伪代码
# Pseudo-code using MCP Python SDK patterns
available_tools = []
for session in app.mcp_server_sessions():
    tools_response = await session.list_tools()
    available_tools.extend(tools_response.tools)
conversation.register_available_tools(available_tools)
3

工具执行(原语)

客户端现在可以使用 tools/call 方法执行一个工具。这演示了 MCP 原语在实践中是如何使用的:在发现可用工具后,客户端可以用适当的参数调用它们。

理解工具执行请求

tools/call 请求遵循一种结构化格式,以确保类型安全和客户端与服务器之间的清晰通信。请注意,我们使用的是发现响应中正确的工具名称(com.example.weather/current),而不是一个简化的名称。
{
  "jsonrpc": "2.0",
  "id": 3,
  "method": "tools/call",
  "params": {
    "name": "com.example.weather/current",
    "arguments": {
      "location": "San Francisco",
      "units": "imperial"
    }
  }
}

工具执行的关键要素

请求结构包括几个重要组成部分
  1. name:必须与发现响应中的工具名称完全匹配(com.example.weather/current)。这确保服务器可以正确识别要执行的工具。
  2. arguments:包含由工具的 inputSchema 定义的输入参数。在此示例中:
    • location: "San Francisco" (必需参数)
    • units: "imperial" (可选参数,如果未指定则默认为 "metric")
  3. JSON-RPC 结构:使用标准的 JSON-RPC 2.0 格式,带有唯一的 id 用于请求-响应关联。

理解工具执行响应

响应展示了 MCP 灵活的内容系统
  1. content 数组:工具响应返回一个内容对象数组,允许丰富的、多格式的响应(文本、图片、资源等)
  2. 内容类型:每个内容对象都有一个 type 字段。在本例中,"type": "text" 表示纯文本内容,但 MCP 支持各种内容类型以适应不同的用例。
  3. 结构化输出:响应提供了可操作的信息,AI 应用程序可以将其用作与语言模型交互的上下文。
这种执行模式允许 AI 应用程序动态调用服务器功能,并接收结构化的响应,这些响应可以集成到与语言模型的对话中。

这在 AI 应用程序中如何工作

当语言模型在对话中决定使用一个工具时,AI 应用程序会拦截该工具调用,将其路由到相应的 MCP 服务器,执行它,并将结果作为对话流程的一部分返回给 LLM。这使 LLM 能够访问实时数据并在外部世界中执行操作。
# Pseudo-code for AI application tool execution
async def handle_tool_call(conversation, tool_name, arguments):
    session = app.find_mcp_session_for_tool(tool_name)
    result = await session.call_tool(tool_name, arguments)
    conversation.add_tool_result(result.content)
4

实时更新(通知)

MCP 支持实时通知,使服务器能够在未经明确请求的情况下通知客户端有关更改。这演示了通知系统,这是一个关键功能,可以保持 MCP 连接的同步和响应性。

理解工具列表更改通知

当服务器的可用工具发生变化时——例如,当新功能可用、现有工具被修改或工具暂时不可用时——服务器可以主动通知已连接的客户端
请求
{
  "jsonrpc": "2.0",
  "method": "notifications/tools/list_changed"
}

MCP 通知的关键特性

  1. 无需响应:请注意通知中没有 id 字段。这遵循了 JSON-RPC 2.0 的通知语义,即不期望或发送响应。
  2. 基于能力:此通知仅由在初始化期间在其工具能力中声明了 "listChanged": true 的服务器发送(如步骤 1 所示)。
  3. 事件驱动:服务器根据内部状态变化决定何时发送通知,这使得 MCP 连接具有动态性和响应性。

客户端对通知的响应

收到此通知后,客户端通常会通过请求更新的工具列表来做出反应。这创建了一个刷新周期,使客户端对可用工具的了解保持最新
请求
{
  "jsonrpc": "2.0",
  "id": 4,
  "method": "tools/list"
}

为什么通知很重要

此通知系统至关重要的原因有几个
  1. 动态环境:工具可能会根据服务器状态、外部依赖或用户权限而出现或消失
  2. 效率:客户端不需要轮询更改;当更新发生时它们会收到通知
  3. 一致性:确保客户端始终拥有关于可用服务器能力的准确信息
  4. 实时协作:实现能够适应不断变化上下文的响应式 AI 应用程序
此通知模式不仅限于工具,还扩展到其他 MCP 原语,从而实现客户端和服务器之间全面的实时同步。

这在 AI 应用程序中如何工作

当 AI 应用程序收到有关工具更改的通知时,它会立即刷新其工具注册表并更新 LLM 的可用功能。这确保了正在进行的对话始终可以访问最新的工具集,并且 LLM 可以在新功能可用时动态适应。
# Pseudo-code for AI application notification handling
async def handle_tools_changed_notification(session):
    tools_response = await session.list_tools()
    app.update_available_tools(session, tools_response.tools)
    if app.conversation.is_active():
        app.conversation.notify_llm_of_new_capabilities()