概述
MCP 提供了一种标准化的方式让应用程序:- 与语言模型共享上下文信息
- 向 AI 系统暴露工具和功能
- 构建可组合的集成和工作流程
- 主机:发起连接的 LLM 应用程序
- 客户端:主机应用程序中的连接器
- 服务器:提供上下文和功能的服务的服务
关键细节
基础协议
- JSON-RPC 消息格式
- 有状态连接
- 服务器和客户端功能协商
功能
服务器向客户端提供以下任何功能:- 资源:用户或 AI 模型使用的上下文和数据
- 提示:用户的模板化消息和工作流程
- 工具:AI 模型执行的功能
- 采样:服务器发起的代理行为和递归 LLM 交互
- 根:服务器发起的对 URI 或文件系统边界的查询以进行操作
- 引出:服务器发起的从用户请求额外信息的请求
附加工具
- 配置
- 进度跟踪
- 取消
- 错误报告
- 日志记录
安全性和信任与安全
模型上下文协议通过任意数据访问和代码执行路径实现了强大的功能。随着这种能力的增强,所有实现者必须仔细解决重要的安全和信任考虑因素。关键原则
-
用户同意和控制
- 用户必须明确同意并理解所有数据访问和操作
- 用户必须保留对共享哪些数据和采取哪些行动的控制权
- 实现者应提供清晰的 UI 来审查和授权活动
-
数据隐私
- 主机必须在向服务器暴露用户数据之前获得明确的用戶同意
- 主机不得在未经用户同意的情况下将资源数据传输到其他地方
- 用户数据应受到适当的访问控制保护
-
工具安全
- 工具代表任意代码执行,必须谨慎对待。
- 特别是,除非从受信任的服务器获得,否则应将工具行为的描述(如注释)视为不受信任。
- 主机必须在调用任何工具之前获得明确的用戶同意
- 用户应在使用前理解每个工具的作用
- 工具代表任意代码执行,必须谨慎对待。
-
LLM 采样控制
- 用户必须明确批准任何 LLM 采样请求
- 用户应控制:
- 是否发生采样
- 将发送的实际提示
- 服务器可以看到哪些结果
- 该协议故意限制服务器对提示的可见性
实现指南
虽然 MCP 本身无法在协议级别强制执行这些安全原则,但实现者应该:- 在其应用程序中构建强大的同意和授权流程
- 提供安全含义的清晰文档
- 实施适当的访问控制和数据保护
- 在其集成中遵循安全最佳实践
- 在其功能设计中考虑隐私含义