# Sleuth：结构化AI侦探工作流框架，56个任务构建完整调查流水线

> sleuth项目提供了一套完整的六阶段AI代理调查工作流，从任务定向到最终报告输出，通过56个细粒度任务和模板化流程，实现类似情报分析的结构化推理。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-10T05:45:20.000Z
- 最近活动: 2026-05-10T05:47:01.827Z
- 热度: 149.0
- 关键词: AI代理, 工作流框架, 情报分析, 结构化推理, 任务自动化, 调查工具, GitHub开源
- 页面链接: https://www.zingnex.cn/forum/thread/sleuth-ai-56
- Canonical: https://www.zingnex.cn/forum/thread/sleuth-ai-56
- Markdown 来源: ingested_event

---

## 背景：AI代理需要结构化推理框架

当前AI代理在复杂任务中常常面临推理链条断裂、信息整合困难的问题。特别是在需要多步骤调查、跨文档关联分析的场景中，缺乏系统化的工作流指导会导致输出质量不稳定。情报分析领域长期积累的结构化方法论，恰好能为AI代理的复杂推理提供可复用的框架。

## Sleuth项目概述

Sleuth是由elb-pr开发的开源项目，提供了一套完整的六阶段AI代理调查工作流框架。该框架将复杂的调查任务分解为56个细粒度任务，每个阶段都有明确的输入输出规范和参考模板。项目核心是一个名为`task_runner.py`的执行引擎，负责按顺序驱动各阶段任务的完成。

## 六阶段工作流详解

### 第一阶段：任务定向（Operational Direction）

这是整个调查的起点。在此阶段，系统需要明确调查目标、范围边界和成功标准。与传统AI提示不同，这里的定向是结构化的——需要定义关键问题、识别利益相关方、确定信息来源优先级。模板化的定向文档确保每次调查都有清晰的起点。

### 第二阶段：情报收集（Intelligence Collection）

定向完成后进入大规模信息采集阶段。该阶段不仅关注数据获取，更强调来源可信度评估和采集策略优化。框架提供了多种采集模板，涵盖文档抓取、API调用、数据库查询等常见场景，同时内置来源质量评分机制。

### 第三阶段：整理与实体解析（Collation & Entity Resolution）

原始数据需要转化为结构化知识。这一阶段的核心任务是从杂乱信息中识别关键实体（人、组织、事件、地点），并解决实体消歧问题——同名不同人、同人有别名等情况都需要在此处理。输出是一份经过清洗和关联的实体图谱。

### 第四阶段：时序与关系处理（Chronological & Relational Processing）

有了干净的实体数据，下一步是构建时间线和关系网络。框架要求按时间顺序排列事件，识别因果关系和关联模式。这一阶段输出的是可视化友好的时序图和关系图，为后续推理提供宏观视角。

### 第五阶段：假设与推理（Hypothesis & Reasoning）

基于前四阶段构建的知识基础，系统进入真正的推理环节。框架鼓励生成多个竞争性假设，并为每个假设收集支持/反驳证据。这种结构化辩论机制有效降低了确认偏误的风险，确保结论经得起检验。

### 第六阶段：最终报告（Final Report）

所有调查成果在此阶段汇总。报告模板要求包含执行摘要、方法论说明、关键发现、证据链展示、置信度评估和后续建议。标准化的输出格式便于人工审核和跨案例比较。

## 技术实现亮点

`task_runner.py`作为执行引擎，实现了阶段间的自动流转和状态管理。每个任务完成后，系统会输出参考文件供下游任务使用，形成清晰的数据依赖链。这种设计使得长流程执行可追踪、可恢复——如果某阶段失败，可以从断点继续而非从头开始。

## 实际应用场景

Sleuth框架适用于多种需要深度调查的场景：学术研究中的文献综述、企业竞争情报分析、开源情报调查、代码库架构梳理、甚至复杂客户支持工单处理。任何需要从分散信息中提炼结构化洞察的任务，都可以受益于这套方法论。

## 总结与展望

Sleuth将情报分析领域的成熟方法论转化为AI代理可执行的工作流，填补了当前AI工具在复杂推理任务中的结构性空白。56个任务的细粒度设计既保证了流程完整性，又保留了足够的灵活性。对于希望构建可靠AI调查系统的开发者而言，这是一个值得深入研究的参考实现。
