协议修订: 2024-11-05
用户交互模型
MCP中的采样允许服务器实现代理行为,通过使LLM调用发生在其他MCP服务器功能_内部_。 实现可以自由地通过任何适合其需求的界面模式来暴露采样——协议本身不强制任何特定的用户交互模型。功能
支持采样的客户端必须在初始化期间声明sampling 功能:
协议消息
创建消息
要请求语言模型生成,服务器发送sampling/createMessage 请求:
请求:
消息流程
数据类型
消息
采样消息可以包含:文本内容
图像内容
模型偏好
MCP中的模型选择需要仔细抽象,因为服务器和客户端可能使用不同的AI提供商,具有不同的模型产品。服务器不能简单地通过名称请求特定模型,因为客户端可能无法访问该确切模型或可能更喜欢使用不同提供商的等效模型。 为了解决这个问题,MCP实现了一个偏好系统,将抽象能力优先级与可选模型提示相结合:能力优先级
服务器通过三个标准化的优先级值(0-1)表达其需求:costPriority:最小化成本有多重要?更高的值偏好更便宜的模型。speedPriority:低延迟有多重要?更高的值偏好更快的模型。intelligencePriority:高级能力有多重要?更高的值偏好更强大的模型。
模型提示
虽然优先级有助于基于特征选择模型,但hints 允许服务器建议特定模型或模型系列:
- 提示被视为可以灵活匹配模型名称的子字符串
- 多个提示按偏好顺序评估
- 客户端可以将提示映射到来自不同提供商的等效模型
- 提示是建议性的——客户端做出最终模型选择
gemini-1.5-pro。
错误处理
客户端应该为常见失败情况返回错误: 错误示例:安全考虑
- 客户端应该实现用户批准控制
- 双方应该验证消息内容
- 客户端应该尊重模型偏好提示
- 客户端应该实现速率限制
- 双方必须适当处理敏感数据