← 返回AI精选
大语言模型

DBRX

Databricks 推出的开源 MoE 大模型,132B 总参数,36B 活跃参数,性能超越同规模密集模型。

模型与定位

DBRX 是 Databricks 研发的开源 MoE(混合专家)模型,总参数 132B,每个 token 激活 36B 参数。在代码生成、数学推理和逻辑推理上超越同规模密集模型,甚至媲美 70B 密集模型,Apache 2.0 协议完全开放商用。

参数速览

模型总参数活跃参数上下文开源权重商业可用
DBRX Base132B36B32K
DBRX Instruct132B36B32K

核心能力

功能说明
MoE 架构16 个专家,每次激活 4 个,效率更高
代码生成在 HumanEval、MBPP 等基准上表现优异
长上下文32K 上下文窗口,适合长文档处理
推理能力数学与逻辑推理能力突出
高效推理36B 活跃参数,推理成本低于密集 70B 模型

平台接入

平台说明
Databricks企业级训练与部署
HuggingFace模型权重下载
Together AI云端推理服务

选型建议

需要 MoE 架构优势选 DBRX;代码生成场景表现优异;企业用户可结合 Databricks 平台使用。