本页面概述了支持模型上下文协议(MCP)的应用程序。每个客户端可能支持不同的 MCP 功能,从而允许与 MCP 服务器实现不同级别的集成。

功能支持矩阵

客户端资源提示工具发现采样引出
5ire
AgentAI
AgenticFlow
AIQL TUUI
Amazon Q CLI
Amazon Q IDE
Apify MCP 测试器
Augment Code
BeeAI Framework
BoltAI
ChatGPT
ChatWise
Claude.ai
Claude Code
Claude 桌面应用
Chorus
Cline
CodeGPT
Continue
Copilot-MCP
Cursor
Daydreams 代理
Emacs Mcp
fast-agent
FlowDown
FLUJO
Genkit⚠️
Glama
Gemini CLI
GenAIScript
GitHub Copilot 编码代理
Goose
gptme
HyperAgent
JetBrains AI Assistant
Kilo Code
Klavis AI Slack/Discord/Web
LibreChat
LM Studio
Lutra
mcp-agent⚠️
mcp-client-chatbot
mcp-use
modelcontextchat.com
MCPHub
MCPOmni-Connect
Memex
Microsoft Copilot Studio
MindPal
MooPoint
Msty Studio
NVIDIA Agent Intelligence 工具包
OpenSumi
oterm
Postman
RecurseChat
Roo Code
Shortwave
Slack MCP 客户端
Sourcegraph Cody
SpinAI
Superinterface
Superjoin
systemprompt
Tambo
腾讯云 CloudBase AI DevKit
TheiaAI/TheiaIDE
Tome
TypingMind App
VS Code GitHub Copilot
Warp
WhatsMCP
Windsurf Editor
Witsy
Zed
Zencoder

客户端详情

5ire

5ire 是一款开源的跨平台桌面 AI 助手,通过 MCP 服务器支持工具。主要功能:
  • 内置的 MCP 服务器可以快速启用和禁用。
  • 用户可以通过修改配置文件来添加更多服务器。
  • 它是开源且用户友好的,适合初学者。
  • 未来将持续改进对 MCP 的支持。

AgentAI

AgentAI 是一个 Rust 库,旨在简化 AI 代理的创建。该库包含与 MCP 服务器的无缝集成。 MCP 服务器集成示例 主要功能:
  • 多 LLM - 我们支持大多数 LLM API(OpenAI、Anthropic、Gemini、Ollama 以及所有与 OpenAI API 兼容的 API)。
  • 内置支持 MCP 服务器。
  • 使用像 Rust 这样类型安全和内存安全的语言创建代理流程。

AgenticFlow

AgenticFlow 是一个无代码 AI 平台,帮助您构建全天候处理销售、营销和创意任务的代理。通过 MCP 安全连接 2,500 多个 API 和 10,000 多个工具。 主要功能:
  • 无代码创建 AI 代理和构建工作流。
  • 通过 MCP 访问包含 10,000 多个工具和 2,500 多个 API 的庞大库。
  • 只需 3 个简单步骤即可连接 MCP 服务器。
  • 安全管理连接并随时撤销访问权限。
了解更多

AIQL TUUI

AIQL TUUI 是一款原生、跨平台的桌面 AI 聊天应用程序,支持 MCP。它支持多个 AI 提供商(如 Anthropic、Cloudflare、Deepseek、OpenAI、Qwen)、本地 AI 模型(通过 vLLM、Ray 等)以及聚合 API 平台(如 Deepinfra、Openrouter 等)。 主要功能:
  • 动态 LLM API 和代理切换:在不同的 LLM API 和代理之间无缝切换。
  • 全面的功能支持:内置支持工具、提示、资源和采样方法。
  • 可配置的代理:通过代理设置选择和自定义工具,增强灵活性。
  • 高级采样控制:修改采样参数并利用多轮采样以获得最佳结果。
  • 跨平台兼容性:完全兼容 macOS、Windows 和 Linux。
  • 自由和开源软件 (FOSS):宽松的许可证允许修改和自定义应用程序捆绑。
了解更多

Amazon Q CLI

Amazon Q CLI 是一款开源的、适用于终端的代理式编程助手。 主要功能:
  • 全面支持 MCP 服务器。
  • 使用您偏好的文本编辑器编辑提示。
  • 使用 @ 即时访问已保存的提示。
  • 直接从您的终端控制和组织 AWS 资源。
  • 工具、配置文件、上下文管理、自动压缩等等!
开始使用
brew install amazon-q

Amazon Q IDE

Amazon Q IDE 是一款开源的、适用于 IDE 的代理式编程助手。 主要功能:
  • 支持 VSCode、JetBrains、Visual Studio 和 Eclipse IDE。
  • 直接从您的 IDE 控制和组织 AWS 资源。
  • 通过 IDE 用户界面管理每个 MCP 工具的权限。

Apify MCP 测试器

Apify MCP 测试器是一款开源客户端,使用服务器发送事件 (SSE) 连接到任何 MCP 服务器。它是一个独立的 Apify Actor,专为通过 SSE 测试 MCP 服务器而设计,支持 Authorization 标头。它使用纯 JavaScript(老式风格)并托管在 Apify 上,让您无需任何设置即可运行。 主要功能:
  • 通过 SSE 连接到任何 MCP 服务器。
  • Apify MCP 服务器 配合使用,与一个或多个 Apify Actors 互动。
  • 根据上下文和用户查询动态利用工具(如果服务器支持)。

Augment Code

Augment Code 是一个适用于 VS Code 和 JetBrains 的 AI 驱动的编码平台,具有自主代理、聊天和代码补全功能。本地和远程代理都具备完整的代码库感知能力和对 MCP 的原生支持,从而通过外部来源和工具增强上下文。主要功能:
  • 在本地和远程代理中完全支持 MCP。
  • 通过 MCP 服务器添加额外的上下文。
  • 使用 MCP 工具自动化您的开发工作流程。
  • 适用于 VS Code 和 JetBrains IDE。

BeeAI Framework

BeeAI Framework 是一个开源框架,用于大规模构建、部署和提供强大的代理工作流。该框架包含 MCP 工具,这是一个原生功能,可简化 MCP 服务器与代理工作流的集成。 主要功能:
  • 将 MCP 工具无缝集成到代理工作流中。
  • 从连接的 MCP 客户端快速实例化框架原生工具。
  • 计划未来支持代理式 MCP 功能。
了解更多

BoltAI

BoltAI 是一款原生的、一体化的 AI 聊天客户端,支持 MCP。BoltAI 支持多家 AI 提供商(OpenAI、Anthropic、Google AI…),包括本地 AI 模型(通过 Ollama、LM Studio 或 LMX)。 主要功能:
  • MCP 工具集成:配置完成后,用户可以在每个聊天中启用单个 MCP 服务器
  • MCP 快速设置:从 Claude 桌面应用或 Cursor 编辑器导入配置
  • 使用 AI 命令功能在任何应用中调用 MCP 工具
  • 在移动应用中与远程 MCP 服务器集成
了解更多

ChatGPT

ChatGPT 是 OpenAI 的 AI 助手,它为远程服务器提供 MCP 支持,以进行深度研究。 主要功能:
  • 通过设置中的连接用户界面支持 MCP
  • 访问已配置的 MCP 服务器的搜索工具以进行深度研究
  • 企业级的安全与合规功能

ChatWise

ChatWise 是一款桌面优化的、高性能的聊天应用程序,让您可以使用自己的 API 密钥。它支持多种大型语言模型(LLM),并与 MCP 集成以启用工具工作流。 主要功能:
  • 对 MCP 服务器的工具支持
  • 提供网络搜索、工件和图像生成等内置工具。

Claude Code

Claude Code 是 Anthropic 推出的一款交互式代理编码工具,通过自然语言命令帮助您更快地编程。它支持 MCP 的资源、提示、工具和根目录集成,并且自身也可作为一个 MCP 服务器,与其他客户端集成。主要功能:
  • 完全支持来自 MCP 服务器的资源、提示、工具和根目录
  • 通过一个 MCP 服务器提供其自身的工具,以便与其他 MCP 客户端集成

Claude.ai

Claude.ai 是 Anthropic 的基于 Web 的 AI 助手,为远程服务器提供 MCP 支持。 主要功能:
  • 通过设置中的集成用户界面支持远程 MCP 服务器
  • 访问来自已配置的 MCP 服务器的工具、提示和资源
  • 与 Claude 的对话界面无缝集成
  • 企业级的安全与合规功能

Claude 桌面应用

Claude 桌面应用程序为 MCP 提供了全面的支持,实现了与本地工具和数据源的深度集成。 主要功能:
  • 完全支持资源,允许附加本地文件和数据
  • 支持提示模板
  • 工具集成,用于执行命令和脚本
  • 本地服务器连接,增强隐私和安全性

Chorus

Chorus 是一款用于与 AI 聊天的原生 Mac 应用。可同时与多个模型聊天,运行工具和 MCP,创建项目,快速聊天,使用自己的密钥,所有这些都在一个速度飞快、支持键盘快捷键的应用中完成。 主要功能:
  • 支持 MCP,一键安装
  • 内置工具,如网络搜索、终端和图像生成
  • 同时与多个模型(云端或本地)聊天
  • 创建具有作用域内存的项目
  • 与可以看到您屏幕的 AI 快速聊天

Cline

Cline 是 VS Code 中的一个自主编码代理,它可以在每一步都获得您的许可下,编辑文件、运行命令、使用浏览器等。 主要功能:
  • 通过自然语言创建和添加工具(例如“添加一个可以搜索网络的工具”)
  • 通过 ~/Documents/Cline/MCP 目录与他人分享 Cline 创建的自定义 MCP 服务器
  • 显示已配置的 MCP 服务器及其工具、资源和任何错误日志

CodeGPT

CodeGPT 是一款热门的 VS Code 和 Jetbrains 扩展,可为您的编辑器带来 AI 驱动的编码辅助。它支持与 MCP 服务器集成工具,允许用户在开发工作流中直接利用外部 AI 功能。 主要功能:
  • 使用来自任何已配置的 MCP 服务器的 MCP 工具
  • 与 VS Code 和 Jetbrains UI 无缝集成
  • 支持多个 LLM 提供商和自定义端点
了解更多

Continue

Continue 是一款开源的 AI 代码助手,内置支持所有 MCP 功能。 主要功能:
  • 输入“@”提及 MCP 资源
  • 提示模板以斜杠命令形式出现
  • 在聊天中直接使用内置和 MCP 工具
  • 支持 VS Code 和 JetBrains IDE,可与任何 LLM 配合使用

Copilot-MCP

Copilot-MCP 通过 MCP 实现 AI 编码辅助。 主要功能:
  • 支持 MCP 工具和资源
  • 与开发工作流集成
  • 可扩展的 AI 功能

Cursor

Cursor 是一款 AI 代码编辑器。 主要功能:
  • 在 Cursor Composer 中支持 MCP 工具
  • 支持 STDIO 和 SSE

Daydreams

Daydreams 是一个生成式代理框架,用于在链上执行任何操作。主要功能:
  • 在配置中支持 MCP 服务器
  • 暴露 MCP 客户端

Emacs Mcp

Emacs Mcp 是一个 Emacs 客户端,旨在与 MCP 服务器对接,实现无缝连接和交互。它为 gptelllm 等 AI 插件提供 MCP 工具调用支持,遵循 Emacs 的标准工具调用格式。这种集成增强了 Emacs 生态系统中 AI 工具的功能。主要功能:
  • 为 Emacs 提供 MCP 工具支持。

fast-agent

fast-agent 是一个 Python Agent 框架,通过简单的声明式支持创建 Agent 和工作流,并为 Anthropic 和 OpenAI 模型提供全面的多模态支持。主要功能:
  • 基于 MCP 原生类型的 PDF 和图像支持
  • 用于开发和诊断 Agent 应用程序的交互式前端,包括直通和回放模拟器
  • 内置支持“构建有效代理”工作流。
  • 将代理部署为 MCP 服务器

FlowDown

FlowDown 是一款速度飞快、流畅的 AI/LLM 客户端应用,特别强调隐私和用户体验。它支持 MCP 服务器,以通过外部工具扩展其功能,让用户能够构建强大、定制化的工作流。 主要功能:
  • 无缝 MCP 集成:轻松连接到 MCP 服务器,以利用各种外部工具。
  • 隐私优先设计:您的数据保留在您的设备上。我们不收集任何用户数据,确保完全的隐私。
  • 轻量高效:紧凑优化的设计确保了与任何 AI 模型的流畅响应体验。
  • 广泛的兼容性:与所有 OpenAI 兼容的服务提供商兼容,并通过 MLX 支持本地离线模型。
  • 丰富的用户体验:具有精美格式化的 Markdown、极速的文本渲染和智能自动化的聊天标题。
了解更多

FLUJO

想象一下 n8n + ChatGPT。FLUJO 是一款桌面应用程序,它与 MCP 集成,为 AI 交互提供了一个工作流构建器界面。它使用 Next.js 和 React 构建,支持在线和离线(ollama)模型,集中管理 API 密钥和环境变量,并可以从 GitHub 安装 MCP 服务器。FLUJO 有一个 ChatCompletions 端点,并且可以从其他 AI 应用程序(如 Cline、Roo 或 Claude)执行流程。 主要功能:
  • 环境与 API 密钥管理
  • 模型管理
  • MCP 服务器集成
  • 工作流编排
  • 聊天界面

Genkit

Genkit 是一个跨语言的 SDK,用于在应用程序中构建和集成 GenAI 功能。genkitx-mcp 插件能够将 MCP 服务器作为客户端使用,或者从 Genkit 工具和提示创建 MCP 服务器。主要功能:
  • 客户端支持工具和提示(资源部分支持)
  • 丰富的发现功能,在 Genkit 的开发者 UI 操场中提供支持
  • 与 Genkit 现有工具和提示的无缝互操作性
  • 适用于来自顶尖提供商的各种 GenAI 模型

Glama

Glama 是一个全面的 AI 工作区和集成平台,为包括 OpenAI、Anthropic 等在内的领先 LLM 提供商提供统一界面。它支持模型上下文协议(MCP)生态系统,使开发者和企业能够轻松发现、构建和管理 MCP 服务器。主要功能:
  • 集成的 MCP 服务器目录
  • 集成的 MCP 工具目录
  • 托管 MCP 服务器并通过聊天或 SSE 端点访问它们 – 能够同时与多个 LLM 和 MCP 服务器聊天
  • 上传和分析本地文件和数据
  • 对您所有的聊天和数据进行全文搜索

GenAIScript

使用 GenAIScript(在 JavaScript 中)以编程方式为 LLM 组装提示。在 JavaScript 中编排 LLM、工具和数据。 主要功能:
  • 用于处理提示的 JavaScript 工具箱
  • 抽象层,使其简单高效
  • 无缝的 Visual Studio Code 集成

Goose

Goose 是一款开源 AI 代理,通过自动化编码任务来增强您的软件开发。 主要功能:
  • 通过工具向 Goose 暴露 MCP 功能。
  • MCP 可以直接通过 扩展目录、CLI 或 UI 安装。
  • Goose 允许您通过构建自己的 MCP 服务器来扩展其功能。
  • 包含用于开发、网络抓取、自动化、内存以及与 JetBrains 和 Google Drive 集成的内置工具。

GitHub Copilot 编码代理

将任务委托给 GitHub Copilot 编码代理,让它在后台工作,而您则专注于最具影响力和最有趣的工作。主要功能:

gptme

gptme 是一款开源的、基于终端的个人 AI 助手/代理,旨在协助编程任务和一般知识工作。主要功能:
  • CLI 优先设计,注重简单易用
  • 丰富的内置工具集,用于 shell 命令、Python 执行、文件操作和网页浏览
  • 本地优先方法,支持多个 LLM 提供商
  • 开源,易于扩展和修改

HyperAgent

HyperAgent 是由 AI 增强的 Playwright。有了 HyperAgent,您不再需要脆弱的脚本,只需要强大的自然语言命令。使用 MCP 服务器,您可以扩展 HyperAgent 的能力,而无需编写任何代码。 主要功能:
  • AI 命令:简单的 API,如 page.ai()、page.extract() 和 executeTask(),适用于任何 AI 自动化
  • 回退到常规 Playwright:当不需要 AI 时,使用常规 Playwright
  • 隐身模式 – 使用内置的反机器人补丁避免被检测
  • 云端就绪 – 通过 Hyperbrowser 即时扩展到数百个会话
  • MCP 客户端 – 连接到像 Composio 这样的工具以实现完整的工作流(例如,将网页数据写入 Google 表格)

JetBrains AI Assistant

JetBrains AI Assistant 插件为所有 JetBrains IDE 提供了 AI 驱动的软件开发功能。 主要功能:
  • 由 JetBrains 专有 AI 模型 Mellum 提供支持的无限代码补全。
  • 能够理解您的代码并实时帮助您的上下文感知 AI 聊天。
  • 可以访问来自 OpenAI、Anthropic 和 Google 的顶级模型。
  • 通过 Ollama 或 LM Studio 连接本地 LLM 的离线模式。
  • 深度集成到 IDE 工作流程中,包括编辑器中的代码建议、VCS 辅助、运行时错误解释等。

Kilo Code

Kilo Code 是 VS Code 中的一个自主编码 AI 开发团队,可以编辑文件、运行命令、使用浏览器等。 主要功能:
  • 通过自然语言创建和添加工具(例如“添加一个可以搜索网络的工具”)
  • 通过 MCP 市场发现 MCP 服务器
  • 通过 MCP 市场一键安装 MCP 服务器
  • 显示已配置的 MCP 服务器及其工具、资源和任何错误日志

Klavis AI Slack/Discord/Web

Klavis AI 是一个开源基础设施,可轻松使用、构建和扩展 MCP。主要功能:
  • 用于直接使用 MCP 的 Slack/Discord/Web MCP 客户端
  • 用于轻松配置 MCP 的简单 Web UI 仪表板
  • 与 Slack 和 Discord 客户端以及 MCP 服务器直接进行 OAuth 集成,以实现安全的用户身份验证
  • 支持 SSE 传输
  • 开源基础设施 (GitHub 仓库)
了解更多

LibreChat

LibreChat 是一款开源、可定制的 AI 聊天界面,支持多家 AI 提供商,现已包含 MCP 集成。主要功能:
  • 通过 MCP 服务器扩展现有的工具生态系统,包括 代码解释器 和图像生成工具
  • 使用来自顶尖提供商的各种 LLM,将工具添加到可定制的 代理
  • 开源且可自托管,支持安全的多用户功能
  • 未来路线图包括扩展 MCP 功能支持

LM Studio

LM Studio 是一款跨平台的桌面应用,用于发现、下载和在本地运行开源 LLM。现在,您可以通过模型上下文协议(MCP)将本地模型连接到工具。 主要功能:
  • 在您的计算机上使用本地模型与 MCP 服务器。向 mcp.json 添加条目并保存即可开始。
  • 工具确认界面:当模型调用工具时,您可以在 LM Studio 应用中确认调用。
  • 跨平台:可在 macOS、Windows 和 Linux 上运行,一键安装,无需在命令行中折腾
  • 支持 GGUF (llama.cpp) 或 MLX 模型,并带有 GPU 加速
  • GUI 和终端模式:使用 LM Studio 应用或 CLI (lms) 进行脚本编写和自动化
了解更多

Lutra

Lutra 是一款 AI 代理,可将对话转化为可操作的自动化工作流。主要功能:
  • 轻松的 MCP 集成:将 Lutra 连接到 MCP 服务器就像提供服务器 URL 一样简单;Lutra 在后台处理其余部分。
  • 通过聊天采取行动:Lutra 理解您的对话上下文和目标,自动与您现有的应用程序集成以执行任务。
  • 可复用的剧本:完成任务后,将步骤保存为可复用的自动化工作流——简化可重复的流程并减少手动工作。
  • 可共享的自动化:轻松与团队成员共享您保存的剧本,以标准化最佳实践并加速协作工作流。
了解更多

mcp-agent

mcp-agent 是一个简单、可组合的框架,用于使用模型上下文协议构建代理。主要功能:
  • 自动管理 MCP 服务器的连接。
  • 向 LLM 暴露来自多个服务器的工具。
  • 实现了 构建有效代理 中定义的所有模式。
  • 支持工作流暂停/恢复信号,例如等待人工反馈。

mcp-client-chatbot

mcp-client-chatbot 是一个使用 Vercel 的 Next.js、AI SDK 和 Shadcn UI 构建的本地优先聊天机器人。主要功能:
  • 它支持标准的 MCP 工具调用,并包括一个自定义 MCP 服务器和一个独立的 UI,用于在聊天流程之外测试 MCP 工具。
  • 默认情况下,所有 MCP 工具都会提供给 LLM,但该项目还包括一个可选的 @toolname 提及功能,使工具调用更加明确——这在连接到具有许多工具的多个 MCP 服务器时特别有用。
  • 可视化工作流构建器,让您通过链接 LLM 节点和 MCP 工具来创建自定义工具。发布的工作流在聊天中可以作为 @workflow_name 工具调用,从而实现复杂的多步自动化序列。

mcp-use

mcp-use 是一个开源 Python 库,可以非常轻松地将任何 LLM 连接到任何本地或远程的 MCP 服务器。 主要功能:
  • 非常简单的界面,可将任何 LLM 连接到任何 MCP。
  • 支持创建自定义代理和工作流。
  • 支持同时连接到多个 MCP 服务器。
  • 支持所有 langchain 支持的模型,也支持本地模型。
  • 提供高效的工具编排和搜索功能。

modelcontextchat.com

modelcontextchat.com 是一个基于 Web 的 MCP 客户端,专为与远程 MCP 服务器工作而设计,具有全面的身份验证支持和与 OpenRouter 的集成。 主要功能:
  • 用于远程 MCP 服务器连接的基于 Web 的界面
  • 基于标头的授权支持,用于安全服务器访问
  • OAuth 身份验证集成
  • 支持 OpenRouter API 密钥以访问各种 LLM 提供商
  • 无需安装 - 可从任何 Web 浏览器访问

MCPHub

MCPHub 是一个功能强大的 Neovim 插件,可将 MCP(模型上下文协议)服务器集成到您的工作流中。主要功能:
  • 通过直观的 UI 安装、配置和管理 MCP 服务器。
  • 内置的 Neovim MCP 服务器,支持文件操作(读、写、搜索、替换)、命令执行、终端集成、LSP 集成、缓冲区和诊断。
  • 直接在 Neovim 中创建基于 Lua 的 MCP 服务器。
  • 与流行的 Neovim 聊天插件 Avante.nvim 和 CodeCompanion.nvim 集成

MCPOmni-Connect

MCPOmni-Connect 是一个多功能的命令行界面 (CLI) 客户端,旨在使用 stdio 和 SSE 两种传输方式连接到各种模型上下文协议 (MCP) 服务器。主要功能:
  • 支持资源、提示、工具和采样
  • 具有 ReAct 和编排器功能的代理模式
  • 与 OpenAI 模型和其他 LLM 无缝集成
  • 跨多个服务器的动态工具和资源管理
  • 支持 stdio 和 SSE 两种传输协议
  • 全面的工具编排和资源分析能力

Memex

Memex 是首款集 MCP 客户端和 MCP 服务器构建器于一体的桌面应用。与仅消费现有服务器的传统 MCP 客户端不同,Memex 可以通过自然语言提示创建自定义 MCP 服务器,并立即将其集成到工具包中,用于解决问题——所有这些都在一次对话中完成。主要功能:
  • 从提示到 MCP 服务器:从自然语言描述生成功能齐全的 MCP 服务器
  • 自测试与调试:自主测试、调试和改进创建的 MCP 服务器
  • 通用 MCP 客户端:通过直观的自然语言集成与任何 MCP 服务器协同工作
  • 精选 MCP 目录:可访问经过测试、一键安装的 MCP 服务器(Neon、Netlify、GitHub、Context7 等)
  • 多服务器编排:同时利用多个 MCP 服务器处理复杂的工作流
了解更多

Microsoft Copilot Studio

Microsoft Copilot Studio 是一个强大的 SaaS 平台,专为构建自定义 AI 驱动的应用程序和智能代理而设计,使开发人员能够创建、部署和管理复杂的 AI 解决方案。主要功能:
  • 支持 MCP 工具
  • 使用 MCP 服务器扩展 Copilot Studio 代理
  • 利用微软统一、受控且安全的 API 管理解决方案

MindPal

MindPal 是一个无代码平台,用于构建和运行面向业务流程的 AI 代理和多代理工作流。主要功能:
  • 无代码构建自定义 AI 代理
  • 连接任何 SSE MCP 服务器以扩展代理工具
  • 为复杂的业务流程创建多代理工作流
  • 对技术和非技术专业人员都友好
  • 持续开发,不断改进 MCP 支持
了解更多

MooPoint

MooPoint MooPoint 是一个为开发者和高级用户打造的基于网页的 AI 聊天平台,让您可以通过一个统一的界面与多个大型语言模型(LLM)互动。连接您自己的 API 密钥(OpenAI、Anthropic 等)并安全地管理自定义 MCP 服务器集成。 主要功能:
  • 可从任何 PC 或智能手机访问——无需安装
  • 选择您偏好的 LLM 提供商
  • 支持 SSE, Streamable HTTP, npx, 和 uvx MCP 服务器
  • 支持 OAuth 和采样
  • 每日新增功能

Msty Studio

Msty Studio 是一个注重隐私的 AI 生产力平台,它将本地和在线语言模型 (LLM) 无缝集成到可定制的工作流中。Msty Studio 专为技术和非技术用户设计,提供一套工具来增强 AI 交互、自动化任务,并保持对数据和模型行为的完全控制。 主要功能:
  • 工具箱与工具集:使用符合 MCP 的配置将 AI 模型连接到本地工具和脚本。将工具分组到工具集中,以在对话中实现动态、多步骤的工作流。
  • 旋转门(Turnstiles):创建自动化的多步 AI 交互,允许复杂的数据处理和决策流程。
  • 实时数据集成:通过集成实时网页搜索功能,用最新信息增强 AI 响应。
  • 分叉聊天与分支:同时与多个模型进行并行对话,从而实现比较分析和多样化视角。
了解更多

NVIDIA Agent Intelligence (AIQ) 工具包

NVIDIA Agent Intelligence (AIQ) toolkit 是一个灵活、轻量且统一的库,可让您轻松地将现有的企业代理连接到任何框架的数据源和工具。 主要功能:
  • 作为 MCP 客户端使用远程工具
  • 作为 MCP 服务器暴露工具
  • 框架无关,与 LangChain、CrewAI、Semantic Kernel 和自定义代理兼容
  • 包含内置的可观察性和评估工具
了解更多

OpenSumi

OpenSumi 是一个帮助您快速构建 AI 原生 IDE 产品的框架。 主要功能:
  • 在 OpenSumi 中支持 MCP 工具
  • 支持内置 IDE MCP 服务器和自定义 MCP 服务器

oterm

oterm 是一个用于 Ollama 的终端客户端,允许用户创建聊天/代理。 主要功能:
  • 支持与 Ollama 连接并使用工具的多个完全可定制的聊天会话。
  • 支持 MCP 工具。

Roo Code

Roo Code 通过 MCP 实现 AI 编码辅助。 主要功能:
  • 支持 MCP 工具和资源
  • 与开发工作流集成
  • 可扩展的 AI 功能

Postman

Postman 是最受欢迎的 API 客户端,现在支持 MCP 服务器的测试和调试。主要功能:
  • 全面支持所有主要的 MCP 功能(工具、提示、资源和订阅)
  • 快速、无缝的 UI,用于调试 MCP 功能
  • MCP 配置集成(Claude、VSCode 等),提供快速的首次 MCP 测试体验
  • 与历史记录、变量和集合集成,以实现复用和协作

RecurseChat

RecurseChat 是一款功能强大、速度快、本地优先的聊天客户端,支持 MCP。RecurseChat 支持多家 AI 提供商,包括 LLaMA.cpp、Ollama、OpenAI 和 Anthropic。主要功能:
  • 本地 AI:支持 Ollama 模型的 MCP。
  • MCP 工具:独立的 MCP 服务器管理。轻松可视化 MCP 服务器的连接状态。
  • MCP 导入:从 Claude 桌面应用或 JSON 导入配置。
了解更多

Shortwave

Shortwave 是一款 AI 驱动的电子邮件客户端,支持 MCP 工具以增强电子邮件生产力和工作流自动化。 主要功能:
  • MCP 工具集成,增强电子邮件工作流
  • 丰富的用户界面,用于添加、管理和与各种 MCP 服务器互动
  • 支持远程(Streamable HTTP 和 SSE)和本地(Stdio)MCP 服务器
  • AI 辅助管理您的电子邮件、日历、任务和其他第三方服务

Slack MCP 客户端

Slack MCP Client 充当 Slack 和模型上下文协议(MCP)服务器之间的桥梁。它使用 Slack 作为界面,使大型语言模型(LLM)能够通过标准化的 MCP 工具连接并与各种 MCP 服务器进行交互。 主要功能:
  • 支持热门的 LLM 提供商: 与 OpenAI、Anthropic 和 Ollama 等领先的大型语言模型提供商无缝集成,允许用户在 Slack 中利用先进的对话式 AI 和编排功能。
  • 动态安全集成: 支持动态注册 MCP 工具,可在频道和私信中工作,并通过环境变量或 Kubernetes secrets 安全地管理凭据。
  • 易于部署和扩展: 提供官方 Docker 镜像、用于 Kubernetes 的 Helm chart 以及用于本地开发的 Docker Compose,使其易于部署、配置和扩展,可添加额外的 MCP 服务器或工具。

Sourcegraph Cody

Cody 是 Sourcegraph 的 AI 编码助手,它通过 OpenCTX 实现 MCP。 主要功能:
  • 支持 MCP 资源
  • 与 Sourcegraph 的代码智能集成
  • 使用 OpenCTX 作为抽象层
  • 计划未来支持更多 MCP 功能

SpinAI

SpinAI 是一个用于构建可观察的 AI 代理的开源 TypeScript 框架。该框架提供原生的 MCP 兼容性,允许代理与 MCP 服务器和工具无缝集成。 主要功能:
  • 为 AI 代理内置 MCP 兼容性
  • 开源 TypeScript 框架
  • 可观察的代理架构
  • 原生支持 MCP 工具集成

Superinterface

Superinterface 是一个 AI 基础设施和开发者平台,用于构建应用内 AI 助手,支持 MCP、交互式组件、客户端函数调用等。 主要功能:
  • 在通过 React 组件或脚本标签嵌入的助手中使用 MCP 服务器的工具
  • 支持 SSE 传输
  • 使用来自任何 AI 提供商(OpenAI、Anthropic、Ollama 等)的任何 AI 模型

Superjoin

Superjoin 将 MCP 的强大功能直接带入 Google Sheets 扩展程序。通过 Superjoin,用户可以直接在电子表格中访问和调用 MCP 工具和代理,从而在其数据所在之处实现强大的 AI 工作流和自动化。主要功能:
  • 原生 Google Sheets 插件,轻松访问 MCP 功能
  • 支持 OAuth 2.1 和基于标头的身份验证,实现安全灵活的连接
  • 兼容 SSE 和 Streamable HTTP 传输,实现高效的实时流通信
  • 完全基于 Web 的跨平台客户端,无需额外安装软件

systemprompt

systemprompt 是一款声控移动应用,用于管理您的 MCP 服务器。从口袋里安全地利用 MCP 代理。可在 iOS 和 Android 上使用。主要功能:
  • 原生移动体验:在 Android 和 iOS 设备上随时随地访问和管理您的 MCP 服务器
  • 先进的 AI 驱动语音识别:复杂的语音识别引擎,通过尖端的 AI 和自然语言处理(NLP)进行增强,专门调整以理解复杂的开发者术语和命令结构
  • 统一的多 MCP 服务器管理:从一个集中的移动应用程序轻松管理和与多个模型上下文协议(MCP)服务器进行交互

Tambo

Tambo 是一个用于在 React 中构建自定义聊天体验的平台,集成了自定义用户界面组件。主要功能:
  • 托管平台,提供 React SDK,用于将聊天或其他基于 LLM 的体验集成到您自己的应用中。
  • 支持在聊天体验中选择任意 React 组件,并进行状态管理和工具调用。
  • 支持来自 Tambo 服务器或直接来自浏览器的 MCP 服务器。
  • 支持 OAuth 2.1 和自定义基于标头的身份验证。
  • 支持 MCP 工具,更多 MCP 功能即将推出。

腾讯云 CloudBase AI DevKit

腾讯云 CloudBase AI DevKit 是一款可在数分钟内构建 AI 代理的工具,具有零代码工具、安全数据集成以及通过 MCP 实现的可扩展插件。 主要功能:
  • 支持 MCP 工具
  • 使用 MCP 服务器扩展代理
  • MCP 服务器托管:无服务器托管和身份验证支持

TheiaAI/TheiaIDE

Theia AI 是一个用于构建 AI 增强工具和 IDE 的框架。AI 驱动的 Theia IDE 是一个基于 Theia AI 构建的开放、灵活的开发环境。 主要功能:
  • 工具集成:Theia AI 使 AI 代理(包括 Theia IDE 中的代理)能够利用 MCP 服务器进行无缝的工具交互。
  • 可自定义的提示:Theia IDE 允许用户定义和调整提示,动态集成 MCP 服务器以实现量身定制的工作流。
  • 自定义代理:Theia IDE 支持创建利用 MCP 功能的自定义代理,使用户能够即时设计专用工作流。
Theia AI 和 Theia IDE 的 MCP 集成为用户提供了灵活性,使其成为探索和适应 MCP 的强大平台。 了解更多:

Tome

Tome 是一款开源的跨平台桌面应用,专为处理本地 LLM 和 MCP 服务器而设计。它旨在对初学者友好,为刚开始使用 MCP 的人们抽象掉配置的繁琐细节。主要功能:
  • MCP 服务器由 Tome 管理,因此无需安装 uv 或 npm 或配置 JSON
  • 用户可以通过 UI 快速添加或删除 MCP 服务器
  • 与任何支持工具的 Ollama 本地模型兼容

TypingMind App

TypingMind 是一款支持 MCP 的高级 LLM 前端。TypingMind 支持所有主流的 LLM 提供商,如 OpenAI、Gemini、Claude,用户可以使用自己的 API 密钥。 主要功能:
  • MCP 工具集成:一旦配置了 MCP,MCP 工具将显示为插件,可以通过主应用界面轻松启用/禁用。
  • 将 MCP 工具分配给代理:TypingMind 允许用户创建分配了一组 MCP 服务器的 AI 代理。
  • 远程 MCP 服务器:允许用户通过其 MCP 连接器配置自定义运行 MCP 服务器的位置,从而可以在多个设备(笔记本电脑、移动设备等)上使用 MCP 工具,或从远程私有服务器控制 MCP 服务器。
了解更多

VS Code GitHub Copilot

VS Code 通过代理模式将 MCP 与 GitHub Copilot 集成,允许在您的代理式编码工作流中直接与 MCP 提供的工具进行交互。在 Claude Desktop、工作区或用户设置中配置服务器,提供引导式 MCP 安装,并安全处理输入变量中的密钥,以避免泄露硬编码的密钥。 主要功能:
  • 支持 stdio 和服务器发送事件(SSE)传输
  • 为每个代理会话选择工具,以获得最佳性能
  • 通过重启命令和输出日志轻松进行服务器调试
  • 具有可编辑输入的工具调用和始终允许切换
  • 与现有的 VS Code 扩展系统集成,从扩展中注册 MCP 服务器

Warp

Warp 是一款内置 AI 和您开发团队知识的智能终端。通过将自然语言功能直接集成到代理式命令行中,Warp 使开发者能够更高效地编码、自动化和协作——所有这些都在一个具有现代用户体验的终端中完成。主要功能:
  • 支持 MCP 的代理模式:使用自然语言提示调用 MCP 服务器的工具和访问数据
  • 灵活的服务器管理:通过 Warp 的内置 UI 添加和管理基于 CLI 或 SSE 的 MCP 服务器
  • 实时工具/资源发现:查看每个正在运行的 MCP 服务器的工具和资源
  • 可配置的启动:设置 MCP 服务器随 Warp 自动启动或根据需要手动启动

WhatsMCP

WhatsMCP 是一个 WhatsApp 的 MCP 客户端。WhatsMCP 让您可以在舒适的 WhatsApp 聊天中与您的 AI 堆栈互动。主要功能:
  • 支持 MCP 工具
  • SSE 传输,完全支持 OAuth2
  • WhatsApp 消息的聊天流管理
  • 一键设置连接到您的 MCP 服务器
  • 在聊天中管理 MCP 服务器
  • WhatsApp 中原生支持 Oauth 流程

Windsurf Editor

Windsurf Editor 是一款代理式 IDE,将 AI 辅助与开发者工作流相结合。它具有创新的 AI Flow 系统,能够在保持开发者控制的同时,实现协作和独立的 AI 交互。 主要功能:
  • 革命性的 AI Flow 范式,实现人机协作
  • 智能代码生成与理解
  • 丰富的开发工具,支持多模型

Witsy

Witsy 是一款 AI 桌面助手,支持 Anthropic 模型和作为 LLM 工具的 MCP 服务器。 主要功能:
  • 支持多个 MCP 服务器
  • 工具集成,用于执行命令和脚本
  • 本地服务器连接,增强隐私和安全性
  • 从 Smithery.ai 轻松安装
  • 开源,适用于 macOS、Windows 和 Linux

Zed

Zed 是一款高性能的代码编辑器,内置 MCP 支持,专注于提示模板和工具集成。 主要功能:
  • 提示模板在编辑器中以斜杠命令形式出现
  • 工具集成,增强编码工作流
  • 与编辑器功能和工作区上下文紧密集成
  • 不支持 MCP 资源

Zencoder

Zencoder 是一款编码代理,可作为 VS Code 和 JetBrains 系列 IDE 的扩展程序,满足开发者在他们已有的工作环境中的需求。它具备 RepoGrokking(深层上下文代码库理解)、代理管道以及创建和共享自定义代理的能力。主要功能:
  • RepoGrokking - 对代码库的深层上下文理解
  • 代理管道 - 在输出代码之前运行、测试和执行代码
  • Zen Agents 平台 - 能够构建和创建自定义代理并与团队共享
  • 集成的 MCP 工具库,一键安装
  • 用于单元测试和端到端测试的专门代理
了解更多

为您的应用程序添加 MCP 支持

如果您已为您的应用程序添加了 MCP 支持,我们鼓励您提交一个拉取请求,将其添加到此列表中。MCP 集成可以为您的用户提供强大的上下文 AI 功能,并使您的应用程序成为不断增长的 MCP 生态系统的一部分。 添加 MCP 支持的好处:
  • 让用户能够带来自己的上下文和工具
  • 加入一个不断增长的可互操作 AI 应用程序生态系统
  • 为用户提供灵活的集成选项
  • 支持本地优先的 AI 工作流
要开始在您的应用程序中实施 MCP,请查看我们的 PythonTypeScript SDK 文档

更新与更正

此列表由社区维护。如果您发现任何不准确之处或希望更新有关您应用程序中 MCP 支持的信息,请提交一个拉取请求或在我们的文档仓库中提出一个问题