← 返回AI精选
模型推理平台

LLM Studio

LLM Studio 是开源大模型微调与推理平台,支持无代码微调和本地推理,适合模型定制和实验。

产品与定位

开源的大模型微调和推理平台,提供图形界面进行模型训练、推理和部署。支持 QLoRA 等高效微调技术,无需写代码即可定制模型。

功能速览

功能说明
无代码微调图形界面配置训练参数
QLoRA/LoRA高效微调技术,低显存需求
本地推理本地运行和测试模型
模型管理一键下载和切换模型
量化支持INT4/INT8 量化压缩
实验追踪训练指标和日志记录

常用参数

参数作用常见建议
base_model基础模型根据任务选择合适底座
lora_rLoRA 秩越大越强,显存需求越高
learning_rate学习率通常 1e-4 到 3e-4
batch_size批大小受显存限制
quantization量化等级INT4 最小,FP16 最全

调用与兼容性

# 启动 LLM Studio
./llm-studio

# 或命令行训练
llm-studio train --config configs/qlora_config.yaml

版本与更新注意

活跃维护,支持最新模型架构和微调技术。社区贡献活跃。

选型建议

需要模型微调、模型定制首选 LLM Studio;与 Ollama 互补,LLM Studio 侧重训练,Ollama 侧重推理。