# Agentic Research：基于多智能体协作的自动化研究助手框架

> 一个支持本地与云端部署的多智能体研究AI工作流，通过规划、检索、写作三层智能体协作完成研究任务，并内置完整的模型基准测试能力。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-17T10:13:55.000Z
- 最近活动: 2026-04-17T10:20:59.400Z
- 热度: 159.9
- 关键词: multi-agent, research-automation, RAG, vector-search, benchmarking, llama.cpp, Docker, DGX
- 页面链接: https://www.zingnex.cn/forum/thread/agentic-research
- Canonical: https://www.zingnex.cn/forum/thread/agentic-research
- Markdown 来源: ingested_event

---

# Agentic Research：基于多智能体协作的自动化研究助手框架

## 项目背景与研究自动化的需求

在信息爆炸的时代，研究人员和开发者每天都需要处理海量的文献、代码仓库和技术文档。传统的搜索方式往往是线性的：输入关键词、浏览结果、手动整理。这种方式不仅效率低下，而且容易遗漏关键信息。随着大型语言模型能力的提升，人们开始探索如何让AI主动承担研究工作的各个环节——从规划查询策略到整合信息，再到撰写结构化报告。

Agentic Research 正是在这一背景下诞生的开源项目。它不是一个简单的聊天机器人，而是一个由多个专门化智能体组成的协作系统，旨在模拟人类研究者的思考和工作流程。

## 系统架构：三层智能体协作模型

Agentic Research 的核心设计理念是将研究任务分解为三个逻辑阶段，每个阶段由专门的智能体负责。这种分工协作的模式不仅提高了任务执行的准确性，也使得整个流程更加透明和可调试。

### 规划智能体（Planner Agent）

当用户输入研究主题后，规划智能体会首先分析问题的结构，制定一套系统的检索策略。它不会盲目搜索，而是将复杂的研究问题拆解为多个子查询，每个子查询都包含明确的搜索词和检索理由。这种前置规划确保了后续检索的针对性和全面性。

例如，当用户询问"检索增强生成技术"时，规划智能体可能会生成如下查询计划：
- 检索"RAG架构的基本原理"，了解技术背景
- 检索"向量数据库在RAG中的应用"，掌握实现细节
- 检索"RAG与微调的性能对比"，获取评估数据

### 检索智能体（Search Agent）

规划完成后，系统会并行启动多个检索智能体，每个智能体负责执行计划中的一个查询任务。这种并行处理显著提升了信息收集的效率。检索智能体通过知识库工具搜索相关内容，并对结果进行初步的摘要和筛选。

项目支持多种检索后端：
- **OpenAI 向量搜索**：利用 FileSearchTool 对接 OpenAI 的向量存储服务
- **本地向量搜索**：基于 sentence-transformers 的本地嵌入模型，数据完全保留在本地
- **ChromaDB 集成**：通过 DataPrep 服务路由检索请求，支持分布式部署

### 写作智能体（Writer Agent）

当所有检索任务完成后，写作智能体接收来自各个检索智能体的摘要结果，进行信息整合和结构化输出。它不只是简单拼接文本，而是会识别信息之间的关联，构建逻辑清晰的研究报告。最终输出包括背景介绍、关键技术点分析、对比评估以及结论建议。

## 部署灵活性：从本地开发到企业级GPU集群

Agentic Research 的一大优势在于其部署架构的灵活性。项目提供了完整的 Docker 支持，涵盖从个人笔记本到 NVIDIA DGX Spark 企业级GPU集群的多种场景。

### 本地开发模式

对于个人开发者，项目支持通过 uv 包管理器快速启动：

```
uv sync --extra dev
uv run dataprep_server
uv run agentic-research
```

这种模式下，所有组件运行在本地，数据不出机器，适合处理敏感信息或进行原型验证。

### Docker Compose 部署

项目提供了多套 Docker Compose 配置，支持本地环境、NVIDIA GPU 加速环境以及 DGX Spark 集群。通过环境变量和配置文件的组合，用户可以在不同基础设施之间无缝迁移。

配置系统采用分层设计：
- `config-default.yaml`：基础运行时配置，包括默认管理器选择
- `config-docker-dgx.yaml`：DGX 环境的专用配置
- `benchmark-default.yaml`：基准测试的参数设置

## 内置基准测试：量化评估模型能力

除了作为研究工具，Agentic Research 还内置了完整的模型基准测试框架。这对于需要对比不同大语言模型性能的团队尤为重要。

### 测试执行与报告

基准测试支持多轮运行、预热排除、异常值剔除等统计控制手段，确保结果的可靠性。测试报告不仅包含任务完成时间，还详细记录了每个阶段的 Token 消耗情况——当底层模型提供商（如 LiteLLM）暴露用量数据时，系统会自动捕获并汇总。

示例测试命令：

```
# 单配置测试，排除预热并剔除最差运行
./scripts/benchmark-dgx.sh mistralai --report-warmup --drop-worst-run

# 多模型批量测试
./scripts/benchmark-all-dgx.sh --models mistralai,qwen --runs 3
```

### 灵活的模型接入

项目支持多种模型接入方式：
- 云端 API（OpenAI、Mistral 等）
- 本地 llama.cpp 推理
- 通过 LiteLLM 统一接口接入更多提供商

这种设计使得团队可以在统一框架下对比商业API和开源模型的实际表现，为技术选型提供数据支撑。

## 扩展性与自定义能力

Agentic Research 的管理器架构允许用户注入自定义逻辑。通过 `--manager` 参数，可以指定使用内置的管理器实现（如 `agentic_manager`、`deep_manager`），或者加载自定义的 Python 类。这为特定领域的研究任务定制提供了可能。

此外，项目支持通过大纲文件（syllabus）驱动研究流程。用户可以将结构化的研究大纲作为输入，系统会按照大纲的章节安排自动收集和组织内容，非常适合需要遵循特定格式的报告生成任务。

## 实际应用场景

Agentic Research 适用于多种研究和开发场景：

**技术调研**：快速了解一个陌生技术领域的基本概念、主流方案和最新进展。

**竞品分析**：系统性地收集和对比多个开源项目或商业产品的特性。

**文献综述**：辅助学术研究人员整理某一领域的核心论文和关键发现。

**模型选型**：通过基准测试量化评估不同模型在特定任务上的表现。

## 开源与社区

Agentic Research 采用 Apache License 2.0 开源协议，代码托管于 GitHub。项目结构清晰，文档完善，适合作为多智能体系统的学习案例或二次开发的基础框架。对于希望深入理解智能体协作机制、检索增强生成技术或模型评估方法的开发者，这是一个值得关注的项目。
