.webp)
今天,你已经是第十次为你的人工智能代理管道重新布线了--又是一次脆弱的 API 集成,又是一轮手动上下文传递,为的就是不让事情搞砸。硬编码验证流、规范 API 响应、拼接端点--这不是人工智能开发,而是集成地狱。
建立能从多个来源无缝提取数据的人工智能代理本应不费吹灰之力,但如今的现实情况却是分散、重复且难以扩展。每种工具都说着自己的语言,迫使你不得不破解各种变通方法,而不是创建真正的自动化。
Anthropic 正试图通过《模型上下文协议》(MCP)来改变这种状况--这是一种标准化的方式,让人工智能代理能够检索和使用外部数据,而无需面对永无止境的集成噩梦。但它能解决问题吗?让我们来分析一下。
什么是协议?
协议是一组规则和约定,规定了系统如何进行通信和数据交换。与 API(特定于实现的接口)不同,协议为交互建立了一个通用标准。一些著名的例子包括
- HTTP(超文本传输协议)--定义网络浏览器和服务器之间的通信方式。
- OAuth(开放式授权协议)--跨不同平台的安全认证标准。
协议可确保互操作性--每个系统都要重新设计数据交换的方式,而协议则将这一过程标准化,降低了复杂性,使集成更具可扩展性。
虽然协议不是强制性的,也不是强制执行的,但随着时间的推移,协议的采用可以为系统在全球范围内的交互方式奠定基础--我们看到 HTTP 演化为更安全、更广为接受的 HTTPS,从根本上改变了数据在互联网上的传输方式。
什么是模型上下文协议(MCP)?
模型上下文协议(MCP)是 Anthropic 开发的一项开放标准,旨在简化人工智能模型访问外部数据源并与之交互的方式。
MCP 为人工智能代理提供了一个统一的框架,使其能够以标准化的方式检索、处理结构化数据并对其采取行动,而不是要求人工智能系统依赖于自定义 API 集成、手动结构化请求和每项服务的身份验证。
简单地说,MCP 定义了人工智能模型应如何请求和消费外部数据--无论是来自数据库、API、云存储还是企业应用--而无需开发人员为每个数据源硬编码特定于 API 的逻辑。
为什么创建 MCP?
人工智能模型,尤其是LLMs (大型语言模型)和自主代理,需要访问外部工具和数据库,以生成准确的上下文响应。然而,目前人工智能与应用程序界面之间的交互效率低下,给开发人员带来了巨大的开销。
如今,将人工智能代理与外部系统集成需要:
- 为每个工具(客户关系管理、云存储、票务系统等)定制 API 集成。
- 每个应用程序接口的身份验证设置(OAuth、应用程序接口密钥、会话令牌)。
- 手动格式化数据,使 API 响应可用于人工智能模型。
- 跨不同服务的费率限制管理和错误处理。
这种方法无法扩展。每个新的集成都需要定制逻辑、调试和维护,这使得人工智能驱动的自动化变得缓慢、昂贵和脆弱。
通过定义通用协议,MCP 可使人工智能模型更具数据感知能力,而不会迫使开发人员为与之交互的每个系统构建自定义 API 桥接。
MCP 如何工作?
如今,人工智能代理依赖于自定义 API 调用、按服务身份验证和手动响应解析,形成了一个难以扩展的脆弱集成网络。

MCP 并不强迫人工智能代理与应用程序接口进行孤立的交互,而是建立了一个统一的协议,将认证、请求执行和数据格式的复杂性抽象化,使人工智能系统能够专注于推理,而不是低层次的集成逻辑。
MCP 的客户端-服务器架构
MCP 建立在客户端-服务器模式上,它构建了人工智能模型检索外部数据源并与之交互的方式。
- MCP 客户端是人工智能代理、应用程序或任何请求结构化数据的系统。
- MCP 服务器充当中介,从各种应用程序接口、数据库或企业系统中获取数据,并以一致的格式返回。
MCP 服务器无需人工智能模型直接发出 API 请求,而是负责处理复杂的身份验证、数据检索和响应规范化工作。这意味着人工智能代理不再需要管理多个 API 证书、不同的请求格式或不一致的响应结构。
例如,如果一个人工智能模型需要从 Google Drive、Slack 和数据库等多个服务中提取信息,它不会单独查询每个 API。它会向 MCP 服务器发送一个单一的结构化请求,MCP 服务器会处理该请求,从必要的来源收集数据,并返回一个组织良好的响应。
MCP 请求-响应生命周期
典型的 MCP 交互遵循结构化的请求-响应周期,消除了冗余的 API 调用,实现了数据检索的标准化。
1.人工智能代理向 MCP 服务器发送结构化请求。人工智能代理不需要制作单独的应用程序接口请求,而是以统一的格式定义所需的数据。{
"request_id":"xyz-987"、
"查询":[
{"source": "github", "action": "get_recent_commits", "repo": "company/project"},
{"source": "slack", "action": "fetch_unread_messages", "channel": "engineering"}
]
}
2.MCP 服务器通过验证身份、检查权限和确定要查询的外部系统来处理请求。
3.查询以并行方式执行,这意味着同时检索多个服务的数据,而不是按顺序检索,从而减少了整体延迟。
4.将不同来源的回复标准化为人工智能模型可以轻松处理的结构化格式。{
"github": {
"recent_commits":[
{"author": "Alice", "message": "Refactored AI pipeline", "timestamp": "2024-03-12T10:15:00Z"}
]
},
"slack": {
"未读信息":[
{"user": "Bob", "text": "Hey, can you review the PR?", "timestamp": "2024-03-12T09:45:00Z"}
]
}
}
与需要人工解析的原始 API 响应不同,MCP 可确保所有检索到的数据都遵循可预测的结构化格式,使人工智能模型更容易理解和利用。
查询执行和响应汇总
MCP 旨在通过引入结构化执行流程,优化人工智能模型与外部系统的交互方式。

- 请求验证可确保人工智能模型在检索任何数据之前拥有必要的权限。
- 查询路由决定需要访问哪些外部服务。
- 并行执行可同时从多个来源检索数据,从而减少因顺序 API 请求而造成的延迟。
- 响应聚合可将结构化数据整合到单一响应中,从而使人工智能模型无需手动处理多个原始 API 输出。
通过减少冗余请求、规范响应和集中处理身份验证,MCP 消除了不必要的 API 开销,使人工智能驱动的自动化更具可扩展性。
多边协商程序的局限性
模型上下文协议(MCP)是让人工智能模型更有能力以结构化和可扩展的方式与外部系统交互的重要一步。然而,与任何新兴技术一样,它也有一些局限性,需要在广泛采用之前加以解决。
认证挑战
MCP 的最大承诺之一就是让人工智能代理不再依赖于特定的 API 集成。然而,身份验证(AuthN)仍然是一大挑战。
如今,API 身份验证是一个分散的过程--有些服务使用 OAuth,有些依赖于 API 密钥,还有些需要基于会话的身份验证。这种不一致性使得新 API 的上架非常耗时,而 MCP 目前还没有一个内置的身份验证框架来处理这种复杂性。
MCP 仍需要一些外部机制来验证 API 请求,这意味着使用 MCP 的人工智能代理必须依赖 Composio 等其他解决方案来管理 API 凭据。身份验证已列入 MCP 的路线图,但在完全实现之前,开发人员仍需要变通方法来处理跨多个系统的身份验证。
身份管理不明确
另一个悬而未决的问题是身份管理--当人工智能代理通过 MCP 发出请求时,外部系统会看到谁?
例如,如果人工智能助手通过 MCP 查询Slack ,Slack 是否应识别该请求来自:
- 最终用户?
- 人工智能代理本身?(这就需要Slack 单独处理基于人工智能的交互)。
- 共享系统账户?(这可能会带来安全和访问控制问题)。
在企业环境中,这个问题更加复杂,因为在企业环境中,访问控制策略决定了谁可以检索哪些数据。如果没有明确的身份映射,MCP 集成可能会面临访问受限、安全风险或不同平台间的不一致。
计划为 MCP 提供 OAuth 支持,这可能有助于明确身份处理,但在全面实施之前,人工智能模型可能会在基于权限的第三方服务访问方面遇到困难。
供应商锁定和生态系统分裂
MCP 目前是一项由人类学主导的倡议,这就对其长期标准化提出了疑问。随着人工智能生态系统的发展,其他主要参与者--如OpenAI 或 DeepSeek--很有可能开发出自己的人工智能与系统交互协议。
如果出现多个相互竞争的标准,整个行业就会支离破碎,迫使开发人员在不同的、互不兼容的方法之间做出选择。MCP 是继续占据主导地位,还是仅仅成为几种竞争方案之一,还有待观察。
人工智能提供商会围绕 MCP 进行标准化吗?
MCP 提供了一个通用框架,可减少人工智能集成中的碎片化现象,目前每个连接都需要定制解决方案,从而增加了复杂性。
要使 MCP 成为广为接受的标准,主要的人工智能供应商必须采用它。OpenAI、谷歌DeepMind和Meta等公司尚未做出承诺,因此其长期可行性尚不确定。如果没有全行业的合作,出现多个相互竞争的协议的风险仍然很高。
一些公司已经开始使用 MCP。Replit、Codeium 和 Sourcegraph 已将其集成,以简化其人工智能代理与结构化数据的交互方式。不过,MCP 要想超越早期实验,还需要更广泛的应用。
除了人工智能公司,全球标准化工作也可能影响 MCP 的未来。ISO/IEC JTC 1/SC 42 等组织正致力于定义人工智能集成框架。中国的人工智能标准委员会等国家倡议则凸显了塑造下一代人工智能协议的竞争。
MCP 仍在不断发展。如果整个行业都能围绕它进行调整,人工智能集成就会变得更具互操作性和可扩展性。但是,如果出现相互竞争的标准,开发人员可能会面临一个支离破碎的生态系统,而不是一个统一的解决方案。
构建与应用程序接口集成的人工智能代理
MCP 简化了人工智能交互,但身份验证和结构化 API 访问仍然是关键挑战。Botpress 提供 OAuth 和 JWT 支持,允许人工智能代理安全地进行身份验证,并与Slack、Google Calendar、Notion 等进行交互。
有了自主节点(Autonomous Node),人工智能代理就能做出LLM决策并动态执行任务。Botpress 提供了一种结构化的方式来构建跨多个系统连接的人工智能代理。
今天就开始建设--免费。