← 返回AI精选
大语言模型

OLMo

Allen AI 推出的完全开放大语言模型,包含训练数据、代码、权重全流程透明,推动 AI 可复现研究。

模型与定位

OLMo(Open Language Model)由 Allen Institute for AI(AI2)研发,是目前最透明的开源大模型之一。不仅开放权重,还开放完整训练数据、训练代码和评估流程,真正推动 AI 研究的可复现性。

参数速览

模型参数量上下文开源权重商业可用适用场景
OLMo 1.7-7B7B2K研究、实验
OLMo 2-7B7B4K改进推理、研究
OLMo 2-13B13B4K通用对话、研究
OLMo 2-70B70B4K高性能研究、Agent

核心能力

功能说明
完全透明训练数据、代码、权重、评估全部开放
可复现提供完整训练流程,可重复实验
研究友好专为 AI 研究设计,便于学术使用
Apache 2.0完全开放商用
多规模7B~70B 完整规模矩阵

平台接入

平台说明
Allen AI官方主页
HuggingFace模型权重下载
AI2 Playground在线体验

选型建议

AI 研究首选 OLMo 2-70B;需要复现实验选完整 OLMo 栈;学术论文引用推荐 OLMo 系列。