Zing 论坛

正文

Forge:本地优先的多智能体编程运行时,打造完全自主的AI开发环境

Forge是一款本地优先、计划优先的多智能体软件工程运行时,支持通过Ollama、llama.cpp、vLLM等本地模型运行Claude Code风格的智能体工作流。它提供18个沙箱工具、6个模型提供商支持、完整的REPL和UI仪表板,无需遥测、无供应商锁定。

AI编程本地优先多智能体Ollamallama.cpp软件工程开源工具隐私保护智能体运行时Claude Code替代品
发布时间 2026/04/24 22:16最近活动 2026/04/24 22:20预计阅读 5 分钟
Forge:本地优先的多智能体编程运行时,打造完全自主的AI开发环境
1

章节 01

Forge: Local-First Multi-Agent Programming Runtime for Autonomous AI Development

Forge: Local-First Multi-Agent Programming Runtime for Autonomous AI Development

In AI辅助编程工具日益普及的今天,大多数开发者仍然面临一个核心困境:要么依赖云端服务牺牲隐私,要么使用本地工具但功能受限。Forge的出现正是为了解决这一矛盾——它是一款真正意义上的本地优先、计划优先的多智能体软件工程运行时,让你能够在完全掌控自己数据的前提下,享受媲美Claude Code或OpenAI Codex的智能体编程体验。

它提供18个沙箱工具、6个模型提供商支持、完整的REPL和UI仪表板,无需遥测、无供应商锁定。

2

章节 02

Project Background & Core Design Philosophy

Project Background & Design Philosophy

Forge的核心理念可以用一句话概括:"不是助手,而是运行时"。与那些将模型推理放在云端、用户只能看到最终结果的"黑盒"工具不同,Forge将完整的调度器、沙箱环境、权限系统、状态机、智能体循环、记忆层和插件生态系统都搬到了本地。你选择的模型完全由你控制,每一个操作都需要你的批准,整个过程都是可检查、可重放的。

这种设计理念源于对开发者自主权的尊重。在当前的AI编程工具生态中,用户往往被迫在便利性和隐私之间做出妥协。Forge试图证明这两者并非不可兼得——通过精心设计的本地架构,你可以获得强大的AI辅助能力,同时保持对数据和流程的完全控制。

3

章节 03

Core Architecture: Multi-Agent System & State Management

Core Architecture解析

多智能体协作系统

Forge内置了六种专业智能体,每种都有明确的职责边界:

  • Planner(规划器):负责将复杂任务分解为可执行的子任务序列
  • Architect(架构师):设计代码结构和系统架构方案
  • Executor(执行器):执行具体的编码和文件操作
  • Reviewer(审查者):对代码变更进行质量检查
  • Debugger(调试器):诊断和修复运行时错误
  • Memory(记忆体):管理跨会话的上下文和知识积累

任务状态机与执行循环

Forge采用严格的状态机来管理任务生命周期。每个任务从创建到完成会经历明确的状态转换:pending(待处理)、planning(规划中)、executing(执行中)、reviewing(审查中)、completed(已完成)或failed(失败)。这种状态设计让长时间运行的复杂任务可以被安全地中断和恢复,也为多智能体协作提供了清晰的协调机制。

执行循环采用迭代式工具调用模式。Executor智能体在每一步都会评估当前状态,选择合适的工具(如文件读取、代码编辑、命令执行等),执行后观察结果,然后决定下一步行动。这种"观察-思考-行动"的循环模式与人类的编程思维高度一致。

多层记忆系统

为了让智能体具备"学习"能力,Forge设计了分层记忆架构:

  • 工作记忆:当前会话的上下文,包括最近的对话和文件操作
  • 短期记忆:当前项目的相关知识和约定
  • 长期记忆:跨项目的通用编程模式和最佳实践

这种分层设计让系统既能关注当下任务,又能利用积累的经验做出更明智的决策。

4

章节 04

Rich Toolset & Flexible Model Compatibility

工具生态与模型支持

Forge提供了18个内置沙箱工具,涵盖软件开发的各个方面:

文件与代码操作:read(读取文件)、write(写入文件)、edit(编辑文件)、grep(代码搜索)、glob(文件匹配)

环境交互:run_command(执行命令)、git(版本控制操作)、web(网络请求)

开发辅助:代码分析、依赖检查、测试运行等

所有工具都在沙箱环境中运行,确保安全性。更重要的是,Forge支持6种模型提供商的自动检测和适配:Ollama、LM Studio、vLLM、llama.cpp、OpenAI兼容接口、Anthropic。这意味着你可以根据任务需求、隐私要求或性能考虑,灵活选择本地模型或云端API。

系统还内置了对41种模型家族的分类支持,包括Llama、Qwen、DeepSeek、Gemma、Phi、Mistral、Codestral等主流开源模型,确保你选择的模型能够被正确识别和优化使用。

5

章节 05

Preset Usage Modes for Various Development Scenarios

使用模式与工作流

Forge提供了9种预设工作模式,适应不同的开发场景:

  • fast(快速模式):最小化规划,直接执行,适合简单任务
  • balanced(平衡模式):适度的规划与执行,日常开发首选
  • heavy(深度模式):详尽的规划和多轮审查,适合关键代码变更
  • plan(规划模式):仅生成执行计划,不实际执行
  • execute(执行模式):严格按照已有计划执行
  • audit(审计模式):专注代码审查和安全检查
  • debug(调试模式):专注于问题诊断和修复
  • architect(架构模式):专注高层设计和架构决策
  • offline-safe(离线安全模式):完全本地运行,禁止任何外部请求

这种灵活的模式切换让Forge能够适应从快速原型到生产级开发的各类场景。

6

章节 06

Technical Excellence & Performance Metrics

技术亮点与性能表现

Forge在技术实现上展现了极高的工程水准:

启动性能:冷启动"forge doctor"仅需173毫秒,"forge --help"冷启动238毫秒,这在Node.js CLI工具中属于顶尖水平。

UI设计:内置的Web UI仅90KB(未压缩),且完全不依赖CDN,这意味着即使在离线环境下也能正常使用图形界面。

容器化支持:提供约355MB的多架构容器镜像,采用非root用户运行,内置健康检查,适合CI/CD集成。

测试覆盖:拥有548个测试用例,分布在97个测试文件中,全部通过,执行时间约5.5秒,体现了项目对质量的重视。

7

章节 07

Key Application Scenarios & Value Proposition

应用场景与价值主张

Forge特别适合以下场景:

隐私敏感的开发环境:对于处理敏感代码或数据的团队,Forge提供了完全本地运行的选项,消除了数据泄露风险。

定制化AI工作流:通过插件系统和可编程的指令集,团队可以构建符合自身规范的专属AI开发助手。

离线或网络受限环境:航空、军事、某些企业内网等场景下,Forge的离线能力确保了开发效率不受影响。

模型实验与对比:同时支持多种本地和云端模型,方便开发者对比不同模型在特定任务上的表现。

教育与研究:开源的架构和透明的执行过程,使其成为研究AI编程助手工作原理的理想平台。

8

章节 08

Summary & Future Outlook of Forge

总结与展望

Forge代表了一种重要的趋势:AI编程工具正在从"云端黑盒"向"本地透明运行时"演进。它证明了开发者不必在"便利"和"掌控"之间二选一——通过精心的架构设计,两者可以兼得。

对于追求数据主权、需要深度定制、或在特殊环境下工作的开发者来说,Forge提供了一个极具吸引力的选择。它的价值不仅在于功能本身,更在于它所倡导的理念:AI应该是开发者的增强工具,而非替代或束缚。

随着本地大语言模型能力的持续提升,像Forge这样的本地优先运行时将会变得越来越重要。它让我们看到了一个未来:每个开发者都可以拥有完全属于自己的、可信赖的AI编程伙伴。