Skip to main contentModel Context Protocol (MCP) 是一个开放协议,使LLM应用程序与外部数据源和工具之间的无缝集成成为可能。无论您是在构建AI驱动的IDE、增强聊天界面,还是创建自定义AI工作流,MCP都提供了一种标准化的方式来将LLM与它们需要的上下文连接起来。
本规范定义了权威性的协议要求,基于schema.ts中的TypeScript模式。
有关实现指南和示例,请访问modelcontextprotocol.io。
本文件中”MUST”、“MUST NOT”、“REQUIRED”、“SHALL”、“SHALL NOT”、“SHOULD”、“SHOULD NOT”、“RECOMMENDED”、“NOT RECOMMENDED”、“MAY”和”OPTIONAL”等关键词的解释如BCP 14中所述[RFC2119][RFC8174],仅当它们以全大写形式出现时,如此处所示。
MCP提供了一种标准化的方式让应用程序:
- 与语言模型共享上下文信息
- 向AI系统公开工具和能力
- 构建可组合的集成和工作流
该协议使用JSON-RPC 2.0消息在以下之间建立通信:
- 主机:发起连接的LLM应用程序
- 客户端:主机应用程序中的连接器
- 服务器:提供上下文和能力的服务
MCP从Language Server Protocol中汲取了一些灵感,该协议标准化了如何在整个开发工具生态系统中添加对编程语言的支持。类似地,MCP标准化了如何将额外的上下文和工具集成到AI应用程序生态系统中。
关键细节
基础协议
服务器向客户端提供以下任何功能:
- 资源:用户或AI模型使用的上下文和数据
- 提示:用户的模板化消息和工作流
- 工具:AI模型执行的功能
客户端可以向服务器提供以下功能:
其他工具
安全性和信任与安全
Model Context Protocol 通过任意数据访问和代码执行路径实现了强大的功能。这种强大功能伴随着重要的安全和信任考虑,所有实现者都必须仔细处理。
关键原则
-
用户同意和控制
- 用户必须明确同意并理解所有数据访问和操作
- 用户必须保留对共享哪些数据和采取哪些行动的控制权
- 实现者应提供清晰的UI来审查和授权活动
-
数据隐私
用户同意
- 主机不得未经用户同意将资源数据传输到其他地方
- 用户数据应通过适当的访问控制进行保护
- 工具安全
- 工具代表任意代码执行,必须谨慎对待
- 主机必须在调用任何工具之前获得明确的
用户同意
- LLM采样控制
- 用户必须明确批准任何LLM采样请求
- 用户应控制:
- 是否进行采样
- 将发送的实际提示
- 服务器可以看到哪些结果
- 该协议故意限制服务器对提示的可见性
实现指南
虽然MCP本身无法在协议级别强制执行这些安全原则,但实现者应该:
- 在其应用程序中构建强大的同意和授权流程
- 提供安全影响的清晰文档
- 实施适当的访问控制和数据保护
- 在其集成中遵循安全最佳实践
- 在其功能设计中考虑隐私影响
了解更多
探索每个协议组件的详细规范: