模型与定位
适合多模型编排、供应商容灾和成本优化场景。通过单一接入层快速切换 OpenAI、Anthropic、Mistral 等后端。
参数速览
| 项目 | 说明 |
|---|---|
| 输入模态 | 取决于所选上游模型 |
| 输出能力 | 文本、工具调用、结构化输出(按上游能力) |
| 推理模式 | 路由层 + 上游模型能力 |
| 典型模型名 | 平台提供的统一模型标识 |
| 上下文窗口 | 由上游模型决定 |
常用请求参数
| 参数 | 作用 | 常见建议 |
|---|---|---|
model | 选择目标模型 | 设定主模型与回退模型 |
temperature / top_p | 采样控制 | 各模型统一默认值便于比较 |
max_tokens | 输出上限 | 防止路由后成本失控 |
response_format | 结构化响应 | 下游自动化建议强约束 |
tools / tool_choice | 工具调用 | 不同上游兼容性要实测 |
stream | 流式输出 | 聊天界面推荐开启 |
provider/route 相关字段 | 指定供应商或路由策略 | 关键链路建议显式配置 |
调用与兼容性
整体偏 OpenAI 兼容风格,但不同上游模型在函数调用、JSON 严格度、token 计费上存在差异。
版本与下线注意
需同时关注聚合平台变更与上游供应商变更。建议建立模型探活与回退机制。
选型建议
若你需要“一个接口管多家模型”,OpenRouter 能显著降低切换成本;但关键参数与输出格式必须做端到端回归。