【中文 | English】
-
[2026-01-20] 🚀🚀🚀我们开源了基于MiniCPM4.1-8B构建的AgentCPM-Report,能够在报告生成领域比肩顶尖的闭源商业系统如Gemini-2.5-pro-DeepResearch。
-
[2026-01-12] 🚀🚀🚀我们开源了基于全量仅4B参数的智能体大模型AgentCPM-Explore及其所有训练、推理、工具沙盒环境代码,成功闯入GAIA、HLE、BrowseComp等8个经典长难智能体任务榜单,同级别SOTA的表现带来更长行为链路、更准确的深度调研能力,由此突破端侧智能体的性能壁垒。
AgentCPM 是由清华大学自然语言处理实验室(THUNLP)、中国人民大学、面壁智能以及OpenBMB社区联合开发的一系列开源大语言模型智能体。针对智能体在真实世界应用时所面临的长程性、自主性、泛化性不足的问题,提出一系列模型构建方案。团队近期聚焦于先对智能体的深度研究能力进行全方位构建,发布AgentCPM-Explore深度搜索大语言模型智能体与AgentCPM-Report深度调研大语言模型智能体。
| 模型 | 下载链接 | 开源内容 | 技术报告 | 如何使用 |
|---|---|---|---|---|
| AgentCPM-Explore | 🤗 Hugging Face 🤖 ModelScope |
AgentDock: 工具沙盒环境统一管理调度平台 AgentRL: 全异步智能体强化学习框架 AgentToLeaP: 智能体工具学习能力一键测评框架 |
AgentCPM-Explore:实现端侧规模智能体的深度探索能力 | README_zh.md |
| AgentCPM-Report | 🤗 Hugging Face 🤖 ModelScope |
UltraRAG: 低代码RAG框架 | AgentCPM-Report: Interleaving Drafting and Deepening for Open-Ended Deep Research | README_zh.md |
AgentCPM-Explore 拥有 40 亿参数,取得同尺寸模型SOTA、越级赶上甚至超越两倍大参数量(8B级)SOTA模型、比肩部分30B级以上和闭源大模型的效果,实现了更长的行为链路和更准确的深度调研(Deep Research)能力,真正让大模型的长程任务处理能力有望部署于端侧,加速私有化智能助手的普及。AgentCPM-Explore的亮点包括:
-
首个以 4B 全量参数登上 GAIA、HLE、BrowseComp 等 8 个长程复杂智能体任务榜单的端侧智能体模型。
-
可实现超过 100 轮的连续环境交互,支持多源信息交叉验证、搜索策略动态调整、实时核验最新信息,持续深度探索直至任务完成。
-
全流程开源,包括智能体全异步强化学习训练框架AgentRL、工具沙盒统一管理调度平台AgentDock、智能体工具学习能力一键测评平台AgentToLeaP,支持社区共建与自定义扩展。
演示案例(倍速):
demo_zh.mp4
-
多模型多工具协作环境部署:首先启动 AgentDock 工具沙盒平台,提供统一的 MCP 工具服务。和 API 模型协作时,配置模型的
BASE_URL和API_KEY;和本地 host 的模型协作时,确保模型服务可访问。在config.toml文件中配置工具所需的使用参数。 -
启动环境:开箱即用,一键启动。AgentDock 统一工具沙盒管理平台支持
docker compose up -d一键启动所有服务,包括管理面板、数据库和工具节点。 -
启动执行:通过 QuickStart 脚本快速体验框架的核心能力,无需繁琐配置即可运行一个完整的 Agent 任务。
-
准备评测环境 (推荐): 我们提供了一个预装好所有评测依赖的 Docker 镜像,建议直接拉取镜像并在容器内运行:
# 1. 进入项目目录 cd AgentCPM-Explore # 2. 拉取镜像 (支持 amd64/arm64 架构) docker pull yuyangfu/agenttoleap-eval:v2.0 # 3. 启动容器 (请根据实际路径修改 -v 参数) docker run -dit --name agenttoleap --gpus all --network host -v $(pwd):/workspace yuyangfu/agenttoleap-eval:v2.0 # 4. 进入容器 docker exec -it agenttoleap /bin/bash cd /workspace
-
配置与运行: 打开
quickstart.py,在[USER CONFIGURATION]区域进行简单配置:- 自定义任务:修改
QUERY变量为您想要测试的指令(例如:"查一下昨晚的欧冠比赛结果")。 - 模型信息:填入您的 LLM
API_KEY、MODEL_NAME和BASE_URL。 - 工具服务:设置
MANAGER_URL为您的 MCP 工具服务器地址(例如http://localhost:8000,请确保该服务已先行启动)。
配置完成后,直接运行:
python quickstart.py
脚本会自动创建一个演示任务(默认查询今日的ArXiv计算机科学论文),生成执行脚本并启动评测流程。
- 自定义任务:修改
-
查看结果: 运行完成后,结果将保存在
outputs/quickstart_results/目录下。您可以查看dialog.json获取完整的交互轨迹(包含工具调用、思维链等)。注:QuickStart模式默认跳过了自动评分步骤,仅用于展示Agent执行能力。
AgentCPM-Report基于MiniCPM4.1 80亿参数基座模型,接受用户指令作为输入,自主生成长篇报告。其有以下亮点:
- 极致效能,以小博大:通过平均40轮的深度检索与近100轮的思维链推演,实现对信息的全方位挖掘与重组,让端侧模型也能产出逻辑严密、洞察深刻的万字长文,在深度调研任务上以8B参数规模达成与顶级闭源系统的性能对标。
- 物理隔绝,本地安全:专为高隐私场景设计,支持完全离线的本地化敏捷部署,彻底杜绝云端泄密风险。基于我们的 UltraRAG 框架,它能高效挂载并理解您的本地私有知识库,让核心机密数据在“不出域”的前提下,安全地转化为极具价值的专业决策报告。
我们实现了一个最简单的docker-compose一键部署,集成进了UltraRAG,包含RAG框架UltraRAG2.0,模型推理框架vllm与向量数据库milvus;如果您想使用cpu推理,我们也有使用llama.cpp对gguf格式文件模型的版本,将docker-compose.yml转成docker-compose.cpu.yml即可。
git clone git@github.com:OpenBMB/UltraRAG.git
cd UltraRAG
git checkout agentcpm-report-demo
cd agentcpm-report-demo
cp env.example .env
docker-compose -f docker-compose.yml up -d --build
docker-compose -f docker-compose.yml logs -f ultrarag-ui第一次启动需要拉取镜像,下载模型并配环境,需要稍等约30分钟左右
之后您打开http:/localhost:5050 ,如果能看到图形界面,则说明您部署成功。
您可以遵循界面指示,上传本地文件,并进行切片,建索引;之后在Chat板块pipeline选择AgentCPM-Report开始您的流程!
(可选)您可以从Wiki2024 导入Wiki2024作为写作数据库。
您可以从教程 中阅读更多关于AgentCPM-Report的教程。
Huggingface无法访问时,您可以通过modelscope离线下载好模型放到UltraRAG/agentcpm-report-demo/models/agentcpm-report中,然后在.env中设置为本地路径:
VLLM_MODEL_HOST_PATH=
VLLM_MODEL_CONTAINER_PATH=/models/agentcpm-report
VLLM_MODEL=/models/agentcpm-report
VLLM_SERVED_MODEL_NAME=agentcpm-report
- 本仓库开源的代码遵照 Apache-2.0 协议。
如果 AgentCPM-Explore 对您的研究有帮助,您可以按照如下方式进行引用
@misc{chen2026agentcpmexplore,
title = {{{AgentCPM-Explore}}: {{Realizing Long-Horizon Deep Exploration}} for {{Edge-Scale Agents}}},
author = {Chen, Haotian and Cong, Xin and Fan, Shengda and Fu, Yuyang and Gong, Ziqin and Lu, Yaxi and Li, Yishan and Niu, Boye and Pan, Chengjun and Song, Zijun and Wang, Huadong and Wu, Yesai and Wu, Yueying and Xie, Zihao and Yan, Yukun and Zhang, Zhong and Lin, Yankai and Liu, Zhiyuan and Sun, Maosong},
year = 2026,
month = feb,
number = {arXiv:2602.06485},
eprint = {2602.06485},
publisher = {arXiv},
doi = {10.48550/arXiv.2602.06485},
archiveprefix = {arXiv},
langid = {english}
}如果 AgentCPM-Report 对您的研究有所帮助,您可以按照如下方式进行引用:
@misc{li2026agentcpmreport,
title={AgentCPM-Report: Interleaving Drafting and Deepening for Open-Ended Deep Research},
author={Yishan Li and Wentong Chen and Yukun Yan and Mingwei Li and Sen Mei and Xiaorong Wang and Kunpeng Liu and Xin Cong and Shuo Wang and Zhong Zhang and Yaxi Lu and Zhenghao Liu and Yankai Lin and Zhiyuan Liu and Maosong Sun},
year={2026},
eprint={2602.06540},
archivePrefix={arXiv},
primaryClass={cs.AI},
url={https://arxiv.org/abs/2602.06540},
}
