← 返回AI精选
模型推理平台

OpenRouter

OpenRouter 聚合多家模型供应商,通过统一接口实现模型路由、回退与成本优化。

模型与定位

适合多模型编排、供应商容灾和成本优化场景。通过单一接入层快速切换 OpenAI、Anthropic、Mistral 等后端。

参数速览

项目说明
输入模态取决于所选上游模型
输出能力文本、工具调用、结构化输出(按上游能力)
推理模式路由层 + 上游模型能力
典型模型名平台提供的统一模型标识
上下文窗口由上游模型决定

常用请求参数

参数作用常见建议
model选择目标模型设定主模型与回退模型
temperature / top_p采样控制各模型统一默认值便于比较
max_tokens输出上限防止路由后成本失控
response_format结构化响应下游自动化建议强约束
tools / tool_choice工具调用不同上游兼容性要实测
stream流式输出聊天界面推荐开启
provider/route 相关字段指定供应商或路由策略关键链路建议显式配置

调用与兼容性

整体偏 OpenAI 兼容风格,但不同上游模型在函数调用、JSON 严格度、token 计费上存在差异。

版本与下线注意

需同时关注聚合平台变更与上游供应商变更。建议建立模型探活与回退机制。

选型建议

若你需要“一个接口管多家模型”,OpenRouter 能显著降低切换成本;但关键参数与输出格式必须做端到端回归。