Skip to main content
Model Context Protocol (MCP) 是一个开放协议, 使LLM应用程序与外部数据源和工具之间的无缝集成成为可能。无论您是在构建AI驱动的IDE、 增强聊天界面,还是创建自定义AI工作流,MCP都提供了一种标准化的方式来连接LLM与其需要的上下文。 本规范定义了权威的协议要求,基于 schema.ts 中的TypeScript模式。 有关实现指南和示例,请访问 modelcontextprotocol.io 本文档中的关键词”MUST”、“MUST NOT”、“REQUIRED”、“SHALL”、“SHALL NOT”、“SHOULD”、“SHOULD NOT”、“RECOMMENDED”、“NOT RECOMMENDED”、“MAY”和”OPTIONAL”应按照BCP 14 [RFC2119] [RFC8174]中的描述进行解释,当且仅当它们 以全大写形式出现时,如此处所示。

概述

MCP提供了一种标准化的方式让应用程序:
  • 与语言模型共享上下文信息
  • 向AI系统公开工具和功能
  • 构建可组合的集成和工作流
该协议使用JSON-RPC 2.0消息在以下之间建立通信:
  • 主机:发起连接的LLM应用程序
  • 客户端:主机应用程序中的连接器
  • 服务器:提供上下文和功能的服务的服务
MCP从Language Server Protocol中汲取了一些灵感, 该协议标准化了如何在整个开发工具生态系统中添加对编程语言的支持。 类似地,MCP标准化了如何将额外的上下文和工具集成到AI应用程序生态系统中。

关键细节

基础协议

  • JSON-RPC 消息格式
  • 有状态连接
  • 服务器和客户端功能协商

功能

服务器向客户端提供以下任何功能:
  • 资源:用户或AI模型使用的上下文和数据
  • 提示:用户的模板化消息和工作流
  • 工具:AI模型执行的功能
客户端可以向服务器提供以下功能:
  • 采样:服务器发起的代理行为和递归LLM交互
  • :服务器发起的对URI或文件系统边界的查询以进行操作
  • 引出:服务器发起的从用户获取额外信息的请求

附加工具

  • 配置
  • 进度跟踪
  • 取消
  • 错误报告
  • 日志记录

安全和信任与安全

Model Context Protocol通过任意数据访问和代码执行路径启用强大的功能。 这种强大功能伴随着重要的安全和信任考虑,所有实现者都必须仔细解决这些问题。

关键原则

  1. 用户同意和控制
    • 用户必须明确同意并理解所有数据访问和操作
    • 用户必须保留对共享哪些数据和采取哪些行动的控制权
    • 实现者应提供清晰的UI来审查和授权活动
  2. 数据隐私
    • 主机必须在向服务器公开用户数据之前获得明确的用户的同意
    • 主机不得未经用户同意将资源数据传输到其他地方
    • 用户数据应受到适当的访问控制保护
  3. 工具安全
    • 工具代表任意代码执行,必须谨慎对待。
      • 特别是,除非从受信任的服务器获得,否则应将工具行为的描述(如注释)视为不受信任的。
    • 主机必须在调用任何工具之前获得明确的用户的同意
    • 用户应在使用前了解每个工具的作用
  4. LLM采样控制
    • 用户必须明确批准任何LLM采样请求
    • 用户应控制:
      • 是否发生采样
      • 将发送的实际提示
      • 服务器可以看到的结果
    • 该协议故意限制服务器对提示的可见性

实现指南

虽然MCP本身无法在协议级别强制执行这些安全原则, 但实现者应该
  1. 在其应用程序中构建强大的同意和授权流程
  2. 提供安全含义的清晰文档
  3. 实施适当的访问控制和数据保护
  4. 在其集成中遵循安全最佳实践
  5. 在其功能设计中考虑隐私含义

了解更多

探索每个协议组件的详细规范: