← 返回AI精选
大语言模型

书生·浦语

上海人工智能实验室推出的开源大语言模型与多模态模型系列,支持百万 token 超长上下文,兼顾推理性能与部署效率。

模型与定位

书生·浦语(InternLM)由上海人工智能实验室研发,面向科研与产业应用,提供从轻量到超大规模的完整模型矩阵。InternLM3 系列在推理、数学、代码等核心能力上大幅提升,同时支持工具调用与 Agent 工作流。

参数速览

模型参数量上下文开源权重适用场景
InternLM3-8B8B32K轻量部署、边缘推理
InternLM3-20B20B32K通用对话、代码辅助
InternLM2.5-7B7B32K长文档理解、RAG
InternLM2.5-20B20B200K复杂推理、长上下文
InternLM-XComposer2.57B8K图文混合理解

平台接入

平台说明
书生·浦语 API官方 API 服务
HuggingFace模型权重下载
ModelScope国内镜像

选型建议

需要超长上下文(200K)处理文档、RAG 场景首选 InternLM2.5-20B;轻量部署选 InternLM3-8B;多模态场景选 XComposer 系列。