模型与定位
适用于通用对话、复杂推理、代码生成、结构化输出与多模态理解。常见选型是高质量模型配合轻量模型分层使用。
参数速览
| 项目 | 说明 |
|---|---|
| 输入模态 | 文本、图像、音频(按模型能力) |
| 输出能力 | 文本、结构化 JSON、工具调用 |
| 推理模式 | 支持常规生成与推理型模型 |
| 典型模型名 | gpt-5.3-chat-latest、gpt-5.4、gpt-5.4-pro、gpt-5.5(以控制台为准) |
| 上下文窗口 | 按模型不同差异较大,以官方模型页为准 |
常用请求参数
| 参数 | 作用 | 常见建议 |
|---|---|---|
model | 指定模型 | 生产环境固定版本或别名 |
temperature | 控制随机性 | 事实任务 0.0-0.4,创作 0.6-1.0 |
top_p | 核采样 | 与 temperature 二选一优先调 |
max_output_tokens / max_tokens | 限制输出长度 | 避免超长响应造成成本波动 |
response_format | 结构化输出 | 需要稳定解析时使用 JSON |
tools / tool_choice | 函数或工具调用 | Agent 场景建议显式声明 |
stream | 流式返回 | 聊天 UI 建议开启 |
调用与兼容性
支持官方 SDK 与 REST API。生态中大量网关和框架对 OpenAI 接口有默认兼容实现,迁移成本较低。
版本与下线注意
模型迭代频繁,建议定期检查模型生命周期、价格和配额策略;生产环境建议锁定可回滚的模型版本。
选型建议
高准确任务优先推理模型,日常助手和高并发场景优先轻量模型;通过路由策略平衡质量、延迟与成本。