协议修订版:2025-06-18
用户交互模型
MCP 中的采样允许服务器通过启用嵌套在其他 MCP 服务器功能内部的 LLM 调用来实施代理行为。 实现可以自由地通过适合其需求的任何界面模式公开采样——协议本身不强制任何特定的用户交互模型。能力
支持采样的客户端必须在 初始化 期间声明sampling 能力:
Protocol Messages
Creating Messages
To request a language model generation, servers send asampling/createMessage request:
Request:
消息流程
数据类型
消息
采样消息可以包含:文本内容
图像内容
音频内容
模型偏好
MCP 中的模型选择需要仔细抽象,因为服务器和客户端可能使用不同的 AI 提供商,具有不同的模型产品。服务器不能简单地通过名称请求特定模型,因为客户端可能无法访问该确切模型,或者可能更喜欢使用不同提供商的等效模型。 为了解决这个问题,MCP 实施了一个偏好系统,将抽象能力优先级与可选的模型提示相结合:能力优先级
服务器通过三个标准化的优先级值(0-1)表达它们的需求:costPriority:最小化成本有多重要?更高的值偏好更便宜的模型。speedPriority:低延迟有多重要?更高的值偏好更快的模型。intelligencePriority:高级能力有多重要?更高的值偏好更强大的模型。
模型提示
虽然优先级有助于基于特征选择模型,但hints 允许服务器建议特定模型或模型系列:
- 提示被视为可以灵活匹配模型名称的子字符串
- 多个提示按偏好顺序评估
- 客户端可以将提示映射到来自不同提供商的等效模型
- 提示是建议性的——客户端做出最终模型选择
gemini-1.5-pro。
错误处理
客户端应该为常见故障情况返回错误: 错误示例:安全考虑
- 客户端应该实施用户批准控制
- 双方应该验证消息内容
- 客户端应该尊重模型偏好提示
- 客户端应该实施速率限制
- 双方必须适当处理敏感数据