# Forge：本地优先的多智能体编程运行时，打造完全自主的AI开发环境

> Forge是一款本地优先、计划优先的多智能体软件工程运行时，支持通过Ollama、llama.cpp、vLLM等本地模型运行Claude Code风格的智能体工作流。它提供18个沙箱工具、6个模型提供商支持、完整的REPL和UI仪表板，无需遥测、无供应商锁定。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-24T14:16:41.000Z
- 最近活动: 2026-04-24T14:20:39.997Z
- 热度: 163.9
- 关键词: AI编程, 本地优先, 多智能体, Ollama, llama.cpp, 软件工程, 开源工具, 隐私保护, 智能体运行时, Claude Code替代品
- 页面链接: https://www.zingnex.cn/forum/thread/forge-ai-6aa637a1
- Canonical: https://www.zingnex.cn/forum/thread/forge-ai-6aa637a1
- Markdown 来源: ingested_event

---

# Forge：本地优先的多智能体编程运行时，打造完全自主的AI开发环境

在AI辅助编程工具日益普及的今天，大多数开发者仍然面临一个核心困境：要么依赖云端服务牺牲隐私，要么使用本地工具但功能受限。Forge的出现正是为了解决这一矛盾——它是一款真正意义上的本地优先、计划优先的多智能体软件工程运行时，让你能够在完全掌控自己数据的前提下，享受媲美Claude Code或OpenAI Codex的智能体编程体验。

## 项目背景与设计哲学

Forge的核心理念可以用一句话概括："不是助手，而是运行时"。与那些将模型推理放在云端、用户只能看到最终结果的"黑盒"工具不同，Forge将完整的调度器、沙箱环境、权限系统、状态机、智能体循环、记忆层和插件生态系统都搬到了本地。你选择的模型完全由你控制，每一个操作都需要你的批准，整个过程都是可检查、可重放的。

这种设计理念源于对开发者自主权的尊重。在当前的AI编程工具生态中，用户往往被迫在便利性和隐私之间做出妥协。Forge试图证明这两者并非不可兼得——通过精心设计的本地架构，你可以获得强大的AI辅助能力，同时保持对数据和流程的完全控制。

## 核心架构解析

Forge的架构设计体现了"运行时"这一定位的深度思考。整个系统围绕几个关键组件构建：

### 多智能体协作系统

Forge内置了六种专业智能体，每种都有明确的职责边界：

- **Planner（规划器）**：负责将复杂任务分解为可执行的子任务序列
- **Architect（架构师）**：设计代码结构和系统架构方案
- **Executor（执行器）**：执行具体的编码和文件操作
- **Reviewer（审查者）**：对代码变更进行质量检查
- **Debugger（调试器）**：诊断和修复运行时错误
- **Memory（记忆体）**：管理跨会话的上下文和知识积累

这种分工明确的智能体架构避免了单一智能体"什么都做但什么都不精"的问题，让系统在处理复杂工程任务时表现得更加可靠和专业。

### 任务状态机与执行循环

Forge采用严格的状态机来管理任务生命周期。每个任务从创建到完成会经历明确的状态转换：pending（待处理）、planning（规划中）、executing（执行中）、reviewing（审查中）、completed（已完成）或failed（失败）。这种状态设计让长时间运行的复杂任务可以被安全地中断和恢复，也为多智能体协作提供了清晰的协调机制。

执行循环采用迭代式工具调用模式。Executor智能体在每一步都会评估当前状态，选择合适的工具（如文件读取、代码编辑、命令执行等），执行后观察结果，然后决定下一步行动。这种"观察-思考-行动"的循环模式与人类的编程思维高度一致。

### 多层记忆系统

为了让智能体具备"学习"能力，Forge设计了分层记忆架构：

- **工作记忆**：当前会话的上下文，包括最近的对话和文件操作
- **短期记忆**：当前项目的相关知识和约定
- **长期记忆**：跨项目的通用编程模式和最佳实践

这种分层设计让系统既能关注当下任务，又能利用积累的经验做出更明智的决策。

## 工具生态与模型支持

Forge提供了18个内置沙箱工具，涵盖软件开发的各个方面：

**文件与代码操作**：read（读取文件）、write（写入文件）、edit（编辑文件）、grep（代码搜索）、glob（文件匹配）

**环境交互**：run_command（执行命令）、git（版本控制操作）、web（网络请求）

**开发辅助**：代码分析、依赖检查、测试运行等

所有工具都在沙箱环境中运行，确保安全性。更重要的是，Forge支持6种模型提供商的自动检测和适配：Ollama、LM Studio、vLLM、llama.cpp、OpenAI兼容接口、Anthropic。这意味着你可以根据任务需求、隐私要求或性能考虑，灵活选择本地模型或云端API。

系统还内置了对41种模型家族的分类支持，包括Llama、Qwen、DeepSeek、Gemma、Phi、Mistral、Codestral等主流开源模型，确保你选择的模型能够被正确识别和优化使用。

## 使用模式与工作流

Forge提供了9种预设工作模式，适应不同的开发场景：

- **fast（快速模式）**：最小化规划，直接执行，适合简单任务
- **balanced（平衡模式）**：适度的规划与执行，日常开发首选
- **heavy（深度模式）**：详尽的规划和多轮审查，适合关键代码变更
- **plan（规划模式）**：仅生成执行计划，不实际执行
- **execute（执行模式）**：严格按照已有计划执行
- **audit（审计模式）**：专注代码审查和安全检查
- **debug（调试模式）**：专注于问题诊断和修复
- **architect（架构模式）**：专注高层设计和架构决策
- **offline-safe（离线安全模式）**：完全本地运行，禁止任何外部请求

这种灵活的模式切换让Forge能够适应从快速原型到生产级开发的各类场景。

## 技术亮点与性能表现

Forge在技术实现上展现了极高的工程水准：

**启动性能**：冷启动"forge doctor"仅需173毫秒，"forge --help"冷启动238毫秒，这在Node.js CLI工具中属于顶尖水平。

**UI设计**：内置的Web UI仅90KB（未压缩），且完全不依赖CDN，这意味着即使在离线环境下也能正常使用图形界面。

**容器化支持**：提供约355MB的多架构容器镜像，采用非root用户运行，内置健康检查，适合CI/CD集成。

**测试覆盖**：拥有548个测试用例，分布在97个测试文件中，全部通过，执行时间约5.5秒，体现了项目对质量的重视。

## 应用场景与价值主张

Forge特别适合以下场景：

**隐私敏感的开发环境**：对于处理敏感代码或数据的团队，Forge提供了完全本地运行的选项，消除了数据泄露风险。

**定制化AI工作流**：通过插件系统和可编程的指令集，团队可以构建符合自身规范的专属AI开发助手。

**离线或网络受限环境**：航空、军事、某些企业内网等场景下，Forge的离线能力确保了开发效率不受影响。

**模型实验与对比**：同时支持多种本地和云端模型，方便开发者对比不同模型在特定任务上的表现。

**教育与研究**：开源的架构和透明的执行过程，使其成为研究AI编程助手工作原理的理想平台。

## 总结与展望

Forge代表了一种重要的趋势：AI编程工具正在从"云端黑盒"向"本地透明运行时"演进。它证明了开发者不必在"便利"和"掌控"之间二选一——通过精心的架构设计，两者可以兼得。

对于追求数据主权、需要深度定制、或在特殊环境下工作的开发者来说，Forge提供了一个极具吸引力的选择。它的价值不仅在于功能本身，更在于它所倡导的理念：AI应该是开发者的增强工具，而非替代或束缚。

随着本地大语言模型能力的持续提升，像Forge这样的本地优先运行时将会变得越来越重要。它让我们看到了一个未来：每个开发者都可以拥有完全属于自己的、可信赖的AI编程伙伴。
