模型与定位
适用于通用对话、复杂推理、代码生成、数学解题与结构化输出。基于自研 MoE 架构,具备高性价比与低推理成本优势。主力模型同时支持思考与非思考模式,可按任务类型灵活切换。
参数速览
| 项目 | 说明 |
|---|---|
| 输入模态 | 文本 |
| 输出能力 | 文本、结构化 JSON、工具调用、Function Calling |
| 推理模式 | 支持思考(reasoning)与非思考双模式 |
| 典型模型名 | deepseek-v4-pro、deepseek-v4-flash、deepseek-chat(即将下线)、deepseek-reasoner(即将下线) |
| 上下文窗口 | 128K(以官方最新公告为准) |
常用请求参数
| 参数 | 作用 | 常见建议 |
|---|---|---|
model | 指定模型 | 生产环境推荐 deepseek-v4-pro 或 deepseek-v4-flash |
thinking | 启用思考模式 | 复杂推理任务启用,简单问答可关闭 |
reasoning_effort | 推理深度 | 可选 low、medium、high,高强度问题用 high |
temperature | 控制随机性 | 事实任务 0.0-0.3,创作 0.5-0.8 |
max_tokens | 限制输出长度 | 避免超长响应造成成本波动 |
stream | 流式返回 | 聊天 UI 建议开启 |
调用与兼容性
兼容 OpenAI ChatCompletions 接口,base_url 保持不变。另有 Anthropic 兼容接口(base_url: https://api.deepseek.com/anthropic)供 Anthropic SDK 用户直接迁移。
# OpenAI 兼容调用示例
curl https://api.deepseek.com/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer ${DEEPSEEK_API_KEY}" \
-d '{
"model": "deepseek-v4-flash",
"messages": [{"role": "user", "content": "Hello!"}],
"thinking": {"type": "enabled"},
"stream": false
}'
版本与下线注意
deepseek-chat与deepseek-reasoner将于 2026-07-24 永久停用。过渡期分别映射deepseek-v4-flash的非思考模式与思考模式,请尽快迁移至新模型名。
选型建议
日常对话与快速响应优先 deepseek-v4-flash,高精度任务优先 deepseek-v4-pro;需要多步推理时启用思考模式并设置合理的 reasoning_effort。