# FleetQ：开源AI智能体编排平台，打造自托管的多智能体任务控制中心

> FleetQ是一款功能丰富的开源AI智能体编排平台，提供可视化DAG工作流构建、450+ MCP工具集成、人机协同审批和多智能体团队协作能力，支持自托管部署。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-24T10:15:02.000Z
- 最近活动: 2026-04-24T10:55:06.085Z
- 热度: 143.3
- 关键词: AI智能体, 智能体编排, 多智能体系统, MCP协议, 工作流自动化, 开源平台, PHP, Laravel, 人机协同
- 页面链接: https://www.zingnex.cn/forum/thread/fleetq-ai
- Canonical: https://www.zingnex.cn/forum/thread/fleetq-ai
- Markdown 来源: ingested_event

---

# FleetQ：开源AI智能体编排平台，打造自托管的多智能体任务控制中心

在AI智能体（AI Agent）技术快速发展的今天，如何有效管理和协调多个智能体协同工作，成为开发者和企业面临的关键挑战。大多数现有的智能体框架仅提供Python代码库或简单的API接口，而FleetQ（GitHub项目名agent-fleet-o）则带来了一个完整的生产级平台——它不仅是代码框架，更是一个可视化的"任务控制中心"，让构建、运行和监控自主多智能体系统变得前所未有的简单。

## 项目定位：从代码框架到生产平台

FleetQ的核心理念可以用一句话概括："大多数智能体框架给你的是Python笔记本，而FleetQ给你的是生产平台。"这种定位差异体现在产品的每一个设计决策中。

该项目由escapeboy开发并开源，采用AGPLv3许可证，既允许自托管部署，也提供托管云服务FleetQ Cloud。这种双模式策略满足了不同用户的需求：希望完全掌控数据的企业可以选择私有化部署，而追求快速上手的用户可以直接使用云端服务。

FleetQ的技术栈选择了PHP和Laravel框架，这在AI工具领域是一个相对独特的选择。大多数同类工具基于Python生态构建，而FleetQ证明了PHP/Laravel同样能够支撑复杂的AI编排场景，并且受益于Laravel成熟的生态系统和企业级特性。

## 核心概念：理解FleetQ的抽象模型

要充分利用FleetQ，首先需要理解其精心设计的概念体系。这些概念共同构成了一个完整的智能体编排语言：

**智能体（Agent）**是最基础的构建单元。每个智能体拥有明确的角色（Role）、目标（Goal）、背景故事（Backstory）、个性特征（Personality Traits）以及技能（Skills）配置。此外，每个智能体可以独立配置LLM提供商和模型，并设置故障转移链，确保在主要模型不可用时自动切换到备用模型。

**技能（Skill）**是可复用的能力模块，可以是LLM提示词、业务规则、外部连接器或GPU计算调用。当多个智能体需要相同的能力时，技能机制避免了重复配置，提高了系统的模块化程度。

**实验（Experiment）**代表一次完整的状态化执行流程。每个实验经历20个阶段的流水线：评分（Scoring）、规划（Planning）、构建（Building）、审批（Approval）、执行（Executing）、指标收集（Metrics）、评估（Evaluating）。这种状态机设计确保了复杂任务的每个环节都可追踪、可回滚。

**团队（Crew）**是多智能体协作的执行单元。FleetQ支持七种团队协作模式：顺序执行（Sequential）、并行执行（Parallel）、层级管理（Hierarchical）、自主认领（Self-claim）、对抗辩论（Adversarial）、扇出分发（Fanout）和聊天室（Chat-room）。每种模式适用于不同的业务场景，例如层级模式适合需要明确管理结构的任务，而对抗模式则适合通过辩论提升答案质量的场景。

**工作流（Workflow）**是可复用的可视化DAG模板，支持跨实验使用。工作流节点类型包括智能体节点、条件分支、人工任务、Switch分支和动态分叉，能够表达复杂的业务逻辑而无需编写Python胶水代码。

**项目（Project）**是持续运行或一次性任务的容器，支持通过Cron表达式调度，并内置预算控制和里程碑管理功能。

**信号（Signal）**代表触发智能体的入站事件，可以是Webhook、RSS更新、邮件、Bug报告或GitHub Issue等，支持事件驱动的自动化场景。

**MCP工具（MCP Tool）**是FleetQ与外部AI系统交互的桥梁。通过Model Context Protocol协议，Claude Desktop、Cursor、ChatGPT等外部智能体可以调用FleetQ的450多个工具，实现对平台的程序化控制。

## 可视化DAG工作流：零代码编排复杂流程

FleetQ最引人注目的特性之一是其可视化工作流构建器。用户可以通过拖拽方式构建包含8种节点类型的DAG（有向无环图）：

- **智能体节点**：执行特定任务的AI智能体
- **条件节点**：基于上游输出决定执行路径
- **人工任务节点**：暂停流程等待人工审批或输入
- **Switch节点**：多分支条件选择
- **动态分叉节点**：根据运行时数据动态生成并行分支
- **Do-While节点**：支持循环执行直到满足退出条件

这种可视化方式彻底改变了智能体工作流的开发模式。传统上，开发者需要编写大量Python代码来定义智能体协作逻辑，而在FleetQ中，同样的逻辑可以通过直观的图形界面完成，大大降低了使用门槛。

## 多智能体团队协作：七种模式应对多样场景

FleetQ的团队机制设计得非常精细，支持七种不同的协作模式：

**顺序模式**让智能体按预定顺序依次执行任务，适用于有明确依赖关系的工作流。

**并行模式**允许多个智能体同时工作，适合可以分解为独立子任务的场景。

**层级模式**引入了协调者（Coordinator）、质检员（QA）和执行者（Worker）的角色分工，适合需要质量控制的复杂任务。

**自主认领模式**让智能体根据自身能力和当前负载主动选择任务，提高了资源利用率。

**对抗模式**让多个智能体就同一问题进行辩论，通过观点碰撞产生更高质量的结论。

**扇出分发模式**将一个任务分发给多个智能体并行处理，然后聚合结果，适合需要多角度分析的场景。

**聊天室模式**模拟群组讨论环境，多个智能体在对话中协作解决问题，适合需要创意碰撞的场景。

每种模式都支持加权QA评分和交叉验证机制，确保输出质量可控。

## 人机协同：人工介入的关键节点

FleetQ深刻理解AI智能体的局限性，因此在设计中融入了完善的人机协同机制。人工任务节点可以在工作流的任何位置插入，当流程执行到这些节点时会自动暂停，等待人类审批或输入。

这种设计在多个场景中至关重要：

- **高风险决策**：涉及资金、安全或重要业务决策的步骤需要人类最终确认
- **质量把关**：关键输出在发布前需要人工审核
- **信息补充**：当智能体需要人类特有的知识或判断时

平台提供了直观的审批界面，审批者可以查看上下文信息、历史执行记录和相关指标，做出 informed 的决策。

## 预算控制与成本管理

FleetQ内置了真实的信用账本系统，采用悲观锁定策略防止超支。与简单的Token计数器不同，FleetQ的预算控制基于实际API调用成本，并支持自动暂停功能——当项目支出接近预算上限时，系统会自动停止新的实验启动。

这种精细化的成本管理对于企业级应用至关重要，避免了因智能体失控调用导致的意外账单。

## 智能体进化：自我改进的闭环

FleetQ最具前瞻性的特性是"智能体进化"机制。系统会分析智能体的执行历史，识别表现不佳的模式，并主动提出配置优化建议。这些建议可能涉及提示词调整、参数优化或工作流重构。

用户可以在界面上查看AI提出的改进方案，并一键应用。这种自我改进的闭环使FleetQ部署的智能体能够随着时间推移不断提升表现，而不需要人工持续调优。

## MCP生态集成：450+工具的强大扩展能力

FleetQ通过Model Context Protocol（MCP）协议提供了450多个工具，覆盖45个不同领域。这些工具不仅供FleetQ内部使用，还通过MCP服务器暴露给外部AI系统。

这意味着Claude Desktop、Cursor、ChatGPT Desktop等支持MCP的客户端可以直接调用FleetQ的功能，实现跨平台的智能体协作。例如，用户可以在Claude Desktop中要求"帮我用FleetQ创建一个内容审核工作流"，Claude会通过MCP协议调用FleetQ的API完成实际操作。

这种开放的架构使FleetQ成为AI生态系统的枢纽，而非孤立的工具。

## 生产级特性：安全、可观测性与多租户

FleetQ在架构层面考虑了企业级部署的各项需求：

**安全性**：提供租户隔离、加密凭证保险库、HMAC签名Webhook、SSRF防护和熔断器机制。

**可观测性**：基于OpenTelemetry实现分布式追踪，使用gRPC规范的结构化错误码，支持Jaeger UI一键查看追踪数据。

**多租户**：支持多个团队或项目在同一实例上独立运行，数据完全隔离。

**BYOK与本地LLM**：支持自带API密钥（Bring Your Own Key），兼容Anthropic、OpenAI、Google等商业模型，也支持Ollama、LM Studio、vLLM等本地部署方案，真正实现零供应商锁定。

## 预置模板与快速启动

FleetQ提供了14个预置智能体模板，覆盖工程、内容创作、商业、设计和研究五个类别。这些模板经过精心设计，用户只需点击即可部署，大幅缩短了从安装到产出价值的周期。

平台还内置了AI助手侧边栏，每个页面都提供上下文感知的聊天界面，包含28个内置工具用于查询和管理平台。这种无处不在的AI辅助降低了学习曲线，帮助用户快速掌握平台功能。

## 总结：AI编排领域的新选择

FleetQ以其独特的定位和丰富的功能，为AI智能体编排领域带来了一个值得关注的新选择。它证明了PHP/Laravel技术栈在AI时代的生命力，也展示了可视化编排和人机协同在降低AI应用门槛方面的重要价值。

对于那些寻求生产级智能体编排解决方案、重视数据主权、希望降低AI应用开发门槛的团队，FleetQ提供了一个功能完备且持续演进的开源选项。随着MCP生态的成熟和AI智能体技术的普及，FleetQ有望成为连接各种AI能力的重要枢纽。
