模型与定位
书生·浦语(InternLM)由上海人工智能实验室研发,面向科研与产业应用,提供从轻量到超大规模的完整模型矩阵。InternLM3 系列在推理、数学、代码等核心能力上大幅提升,同时支持工具调用与 Agent 工作流。
参数速览
| 模型 | 参数量 | 上下文 | 开源权重 | 适用场景 |
|---|---|---|---|---|
| InternLM3-8B | 8B | 32K | ✅ | 轻量部署、边缘推理 |
| InternLM3-20B | 20B | 32K | ✅ | 通用对话、代码辅助 |
| InternLM2.5-7B | 7B | 32K | ✅ | 长文档理解、RAG |
| InternLM2.5-20B | 20B | 200K | ✅ | 复杂推理、长上下文 |
| InternLM-XComposer2.5 | 7B | 8K | ✅ | 图文混合理解 |
平台接入
| 平台 | 说明 |
|---|---|
| 书生·浦语 API | 官方 API 服务 |
| HuggingFace | 模型权重下载 |
| ModelScope | 国内镜像 |
选型建议
需要超长上下文(200K)处理文档、RAG 场景首选 InternLM2.5-20B;轻量部署选 InternLM3-8B;多模态场景选 XComposer 系列。