← 返回AI精选
模型推理平台

Ollama

Ollama 是本地大模型运行与服务工具,支持离线部署、OpenAI 兼容调用和模型快速切换。

模型与定位

适合本地开发、隐私敏感业务和离线演示环境。常用于快速验证开源模型与私有知识流程。

参数速览

项目说明
输入模态文本为主
输出能力文本生成、结构化输出(配合提示词)
推理模式本地推理
典型模型名llama3qwenmistral 等本地模型标签
上下文窗口由模型与 num_ctx 等参数共同决定

常用请求参数

参数作用常见建议
model本地模型标签按任务准备多模型模板
temperature随机性稳定输出建议较低
top_p / top_k采样控制小步调整
num_ctx上下文长度与机器内存匹配
num_predict最大生成 token控制响应时间
repeat_penalty抑制重复长输出可适度提高
seed结果复现评测时固定
stream流式输出终端和聊天 UI 常用

调用与兼容性

支持命令行与 HTTP API,并可通过 OpenAI 兼容适配接入现有应用。

版本与下线注意

本地模型升级依赖镜像和权重标签,建议固定版本并记录推理参数快照。

选型建议

若你的优先级是数据不出本地、开发速度快、运维简单,Ollama 是入门与中小规模落地的高性价比方案。