Zing 论坛

正文

Contenox:本地化Agentic AI工作流执行引擎

Contenox是一款基于Go开发的极速本地化CLI工具,支持将自然语言目标转化为持久化的分步计划并执行,原生支持MCP协议和多种LLM后端,实现完全离线的智能体工作流。

ContenoxAgentic AI本地化LLMMCP协议Ollama智能体工作流CLI工具Go语言自动化工具人机协同
发布时间 2026/04/07 23:15最近活动 2026/04/07 23:25预计阅读 16 分钟
Contenox:本地化Agentic AI工作流执行引擎
1

章节 01

导读 / 主楼:Contenox:本地化Agentic AI工作流执行引擎

Contenox是一款基于Go开发的极速本地化CLI工具,支持将自然语言目标转化为持久化的分步计划并执行,原生支持MCP协议和多种LLM后端,实现完全离线的智能体工作流。

2

章节 02

背景

Contenox:本地化Agentic AI工作流执行引擎\n\n## 项目定位:AI工作流的本地指挥官\n\n在大语言模型能力日益强大的今天,如何将这些能力转化为实际可执行的工作流,是AI应用落地的关键挑战。Contenox应运而生——这是一款用Go语言编写的极速、完全本地化的CLI工具,能够将自然语言描述的目标转化为持久化的分步计划,并通过真实的Shell命令和自定义钩子执行。\n\n## 核心设计理念\n\nContenox的设计体现了几个与众不同的理念:\n\n### 持久化计划存储\n\n与许多即时执行的AI工具不同,Contenox将计划存储在SQLite数据库中。这意味着用户可以:\n\n- 暂停执行,稍后继续\n- 检查每个步骤的详细信息\n- 重试失败的步骤\n- 在任何时候重新规划剩余步骤\n\n### 人机协同的默认设计\n\nContenox默认采用人机协同模式,每一步执行前都会等待用户确认。只有在用户明确使用--auto标志时,才会自动执行后续步骤。这种设计确保了用户对执行过程的完全控制。\n\n### 真实工具调用\n\nContenox不满足于仅仅生成代码建议,而是真正执行Shell命令和文件系统操作。这种"说到做到"的设计理念,使其成为真正的自动化工具而非简单的代码生成器。\n\n### 完全离线能力\n\n通过Ollama集成,Contenox可以在完全不连接云端的情况下运行。这意味着敏感数据不会离开用户的机器,满足了许多企业和个人对数据隐私的严格要求。\n\n## 技术架构亮点\n\n### 工作流引擎\n\nContenox内置了一个完整的状态机引擎,这不是一个玩具项目,而是一个生产级的智能体工作流系统。工作流以JSON格式定义,用户可以轻松编写自己的LLM工作流。\n\n### 原生MCP支持\n\nContenox是Model Context Protocol(MCP)的原生客户端。这意味着它可以立即连接到任何兼容MCP的数据源、持久化内存或工具API,无需编写自定义集成代码:\n\nbash\n# 给智能体访问本地文件系统的能力\ncontenox mcp add filesystem --transport stdio \\\n --command npx --args \"-y,@modelcontextprotocol/server-filesystem,/\"\n\n# 给智能体一个跨重启的持久化记忆图\ncontenox mcp add memory --transport stdio \\\n --command npx --args \"-y,@modelcontextprotocol/server-memory\"\n\n# 通过SSE安全连接到云端工具\ncontenox mcp add cloud-tools --transport sse --url https://api.example.com/mcp\n\n\n每个注册的MCP服务器都会在聊天会话和执行计划中自动可用。\n\n### 自定义钩子系统\n\n如果不需要完整的MCP生态,Contenox也支持通过简单的命令将任何HTTP API暴露为智能体工具:\n\nbash\n# 注册FastAPI服务为工具\ncontenox hook add my-api --url http://localhost:8000\n\n# 模型现在可以直接调用该API的任何端点\ncontenox run \"fetch the latest metrics from my API and summarize them\"\n\n\n任何支持HTTP并暴露OpenAPI规范的服务都可以成为一等智能体工具。\n\n### 多后端LLM支持\n\nContenox支持多种LLM后端:\n\n- Ollama:完全本地运行,无需云端\n- OpenAI:GPT系列模型\n- Gemini:Google的AI模型\n- vLLM:自托管的高性能推理\n\n## 实战使用指南\n\n### 安装\n\nUbuntu/Linux:\nbash\nTAG=$(curl -sL https://api.github.com/repos/contenox/contenox/releases/latest | grep '"tag_name"' | cut -d'"' -f4)\nARCH=$(uname -m | sed 's/x86_64/amd64/;s/aarch64/arm64/')\ncurl -sL "https://github.com/contenox/contenox/releases/download/${TAG}/contenox-${TAG}-linux-${ARCH}" -o contenox\nchmod +x contenox && sudo mv contenox /usr/local/bin/contenox\ncontenox --version\n\n\nmacOS:\nbash\nTAG=$(curl -sL https://api.github.com/repos/contenox/contenox/releases/latest | grep '"tag_name"' | cut -d'"' -f4)\nARCH=$(uname -m | sed 's/x86_64/amd64/;s/arm64/arm64/')\ncurl -sL "https://github.com/contenox/contenox/releases/download/${TAG}/contenox-${TAG}-darwin-${ARCH}" -o contenox\nchmod +x contenox && sudo mv contenox /usr/local/bin/contenox\ncontenox --version\n\n\n### 快速开始\n\n1. 初始化:\nbash\ncontenox init # 创建.contenox/目录和默认链\n\n\n2. 注册后端:\nbash\n# 本地Ollama\nollama serve && ollama pull qwen2.5:7b\ncontenox backend add local --type ollama\ncontenox config set default-model qwen2.5:7b\n\n# 或OpenAI/Gemini\n# contenox backend add openai --type openai --api-key-env OPENAI_API_KEY\n# contenox config set default-model gpt-5-mini\n\n\n3. 开始聊天:\nbash\ncontenox \"hey, what can you do?\"\necho 'fix the typos in README.md' | contenox\n\n\n### 计划模式详解\n\n计划模式是Contenox的核心功能,支持复杂的多步骤任务:\n\n创建计划:\nbash\ncontenox plan new \"install a git pre-commit hook that blocks commits when go build fails\"\n\n\n查看计划:\nbash\ncontenox plan show # 查看活动计划和步骤状态\n\n\n执行步骤:\nbash\ncontenox plan next # 执行一步(安全默认)\ncontenox plan next --auto # 自动执行所有剩余步骤\n\n\n故障处理:\nbash\ncontenox plan retry 3 # 重试失败的第3步\ncontenox plan skip 2 # 跳过第2步\ncontenox plan replan # 让模型重写剩余步骤\n\n\n### 命令速查表\n\n| 命令 | 功能 |\n|------|------|\n| contenox plan next | 执行一步(安全默认) |\n| contenox plan next --auto | 自动执行所有步骤 |\n| contenox plan show | 查看活动计划 |\n| contenox plan list | 列出所有计划(*表示活动) |\n| contenox plan retry <N> | 重试失败的步骤 |\n| contenox plan skip <N> | 跳过步骤 |\n| contenox plan replan | 重新规划剩余步骤 |\n| contenox plan delete <name> | 删除计划 |\n| contenox plan clean | 删除所有已完成计划 |\n\n### Web界面:Beam\n\n当需要浏览器界面时,可以使用Beam:\n\nbash\ncontenox beam\n\n\n这会启动完整的Contenox HTTP服务器并提供React应用,支持任务链、管理界面、钩子和MCP等功能。\n\n### 思考模式\n\nContenox支持流式输出模型的内部思维链:\n\nbash\ncontenox --think \"why is my API slow?\"\n\n\n支持DeepSeek-R1、OpenAI o3、Gemini Thinking和Ollama思考模型。\n\n## 应用场景示例\n\nContenox适合多种实际场景:\n\n- 代码库维护:"将代码库中所有TODO注释迁移到TODOS.md"\n- Git工作流:"设置一个当go build失败时阻止提交的pre-commit钩子"\n- 代码审查:"找出所有超过500行的.go文件并生成重构报告"\n- API集成:"从我的API获取最新指标并总结"\n\n## 为什么选择Contenox\n\n在众多AI工具中,Contenox的独特价值在于:\n\n1. 本地化优先:数据不离开本地机器\n2. 生产级可靠:完整的状态机引擎,非玩具项目\n3. 开放生态:原生MCP支持,易于扩展\n4. 人机协同:默认安全模式,用户始终掌控\n5. 极速性能:Go语言编写,响应迅速\n\n对于追求数据隐私、需要可靠自动化、希望保持对AI执行过程控制的用户,Contenox提供了一个令人信服的选择。

3

章节 03

补充观点 1

Contenox:本地化Agentic AI工作流执行引擎\n\n项目定位:AI工作流的本地指挥官\n\n在大语言模型能力日益强大的今天,如何将这些能力转化为实际可执行的工作流,是AI应用落地的关键挑战。Contenox应运而生——这是一款用Go语言编写的极速、完全本地化的CLI工具,能够将自然语言描述的目标转化为持久化的分步计划,并通过真实的Shell命令和自定义钩子执行。\n\n核心设计理念\n\nContenox的设计体现了几个与众不同的理念:\n\n持久化计划存储\n\n与许多即时执行的AI工具不同,Contenox将计划存储在SQLite数据库中。这意味着用户可以:\n\n- 暂停执行,稍后继续\n- 检查每个步骤的详细信息\n- 重试失败的步骤\n- 在任何时候重新规划剩余步骤\n\n人机协同的默认设计\n\nContenox默认采用人机协同模式,每一步执行前都会等待用户确认。只有在用户明确使用--auto标志时,才会自动执行后续步骤。这种设计确保了用户对执行过程的完全控制。\n\n真实工具调用\n\nContenox不满足于仅仅生成代码建议,而是真正执行Shell命令和文件系统操作。这种"说到做到"的设计理念,使其成为真正的自动化工具而非简单的代码生成器。\n\n完全离线能力\n\n通过Ollama集成,Contenox可以在完全不连接云端的情况下运行。这意味着敏感数据不会离开用户的机器,满足了许多企业和个人对数据隐私的严格要求。\n\n技术架构亮点\n\n工作流引擎\n\nContenox内置了一个完整的状态机引擎,这不是一个玩具项目,而是一个生产级的智能体工作流系统。工作流以JSON格式定义,用户可以轻松编写自己的LLM工作流。\n\n原生MCP支持\n\nContenox是Model Context Protocol(MCP)的原生客户端。这意味着它可以立即连接到任何兼容MCP的数据源、持久化内存或工具API,无需编写自定义集成代码:\n\nbash\n给智能体访问本地文件系统的能力\ncontenox mcp add filesystem --transport stdio \\\n --command npx --args \"-y,@modelcontextprotocol/server-filesystem,/\"\n\n给智能体一个跨重启的持久化记忆图\ncontenox mcp add memory --transport stdio \\\n --command npx --args \"-y,@modelcontextprotocol/server-memory\"\n\n通过SSE安全连接到云端工具\ncontenox mcp add cloud-tools --transport sse --url https://api.example.com/mcp\n\n\n每个注册的MCP服务器都会在聊天会话和执行计划中自动可用。\n\n自定义钩子系统\n\n如果不需要完整的MCP生态,Contenox也支持通过简单的命令将任何HTTP API暴露为智能体工具:\n\nbash\n注册FastAPI服务为工具\ncontenox hook add my-api --url http://localhost:8000\n\n模型现在可以直接调用该API的任何端点\ncontenox run \"fetch the latest metrics from my API and summarize them\"\n\n\n任何支持HTTP并暴露OpenAPI规范的服务都可以成为一等智能体工具。\n\n多后端LLM支持\n\nContenox支持多种LLM后端:\n\n- Ollama:完全本地运行,无需云端\n- OpenAI:GPT系列模型\n- Gemini:Google的AI模型\n- vLLM:自托管的高性能推理\n\n实战使用指南\n\n安装\n\nUbuntu/Linux:\nbash\nTAG=$(curl -sL https://api.github.com/repos/contenox/contenox/releases/latest | grep '"tag_name"' | cut -d'"' -f4)\nARCH=$(uname -m | sed 's/x86_64/amd64/;s/aarch64/arm64/')\ncurl -sL "https://github.com/contenox/contenox/releases/download/${TAG}/contenox-${TAG}-linux-${ARCH}" -o contenox\nchmod +x contenox && sudo mv contenox /usr/local/bin/contenox\ncontenox --version\n\n\nmacOS:\nbash\nTAG=$(curl -sL https://api.github.com/repos/contenox/contenox/releases/latest | grep '"tag_name"' | cut -d'"' -f4)\nARCH=$(uname -m | sed 's/x86_64/amd64/;s/arm64/arm64/')\ncurl -sL "https://github.com/contenox/contenox/releases/download/${TAG}/contenox-${TAG}-darwin-${ARCH}" -o contenox\nchmod +x contenox && sudo mv contenox /usr/local/bin/contenox\ncontenox --version\n\n\n快速开始\n\n1. 初始化:\nbash\ncontenox init 创建.contenox/目录和默认链\n\n\n2. 注册后端:\nbash\n本地Ollama\nollama serve && ollama pull qwen2.5:7b\ncontenox backend add local --type ollama\ncontenox config set default-model qwen2.5:7b\n\n或OpenAI/Gemini\ncontenox backend add openai --type openai --api-key-env OPENAI_API_KEY\ncontenox config set default-model gpt-5-mini\n\n\n3. 开始聊天:\nbash\ncontenox \"hey, what can you do?\"\necho 'fix the typos in README.md' | contenox\n\n\n计划模式详解\n\n计划模式是Contenox的核心功能,支持复杂的多步骤任务:\n\n创建计划:\nbash\ncontenox plan new \"install a git pre-commit hook that blocks commits when go build fails\"\n\n\n查看计划:\nbash\ncontenox plan show 查看活动计划和步骤状态\n\n\n执行步骤:\nbash\ncontenox plan next 执行一步(安全默认)\ncontenox plan next --auto 自动执行所有剩余步骤\n\n\n故障处理:\nbash\ncontenox plan retry 3 重试失败的第3步\ncontenox plan skip 2 跳过第2步\ncontenox plan replan 让模型重写剩余步骤\n\n\n命令速查表\n\n| 命令 | 功能 |\n|------|------|\n| contenox plan next | 执行一步(安全默认) |\n| contenox plan next --auto | 自动执行所有步骤 |\n| contenox plan show | 查看活动计划 |\n| contenox plan list | 列出所有计划(*表示活动) |\n| contenox plan retry <N> | 重试失败的步骤 |\n| contenox plan skip <N> | 跳过步骤 |\n| contenox plan replan | 重新规划剩余步骤 |\n| contenox plan delete <name> | 删除计划 |\n| contenox plan clean | 删除所有已完成计划 |\n\nWeb界面:Beam\n\n当需要浏览器界面时,可以使用Beam:\n\nbash\ncontenox beam\n\n\n这会启动完整的Contenox HTTP服务器并提供React应用,支持任务链、管理界面、钩子和MCP等功能。\n\n思考模式\n\nContenox支持流式输出模型的内部思维链:\n\nbash\ncontenox --think \"why is my API slow?\"\n\n\n支持DeepSeek-R1、OpenAI o3、Gemini Thinking和Ollama思考模型。\n\n应用场景示例\n\nContenox适合多种实际场景:\n\n- 代码库维护:"将代码库中所有TODO注释迁移到TODOS.md"\n- Git工作流:"设置一个当go build失败时阻止提交的pre-commit钩子"\n- 代码审查:"找出所有超过500行的.go文件并生成重构报告"\n- API集成:"从我的API获取最新指标并总结"\n\n为什么选择Contenox\n\n在众多AI工具中,Contenox的独特价值在于:\n\n1. 本地化优先:数据不离开本地机器\n2. 生产级可靠:完整的状态机引擎,非玩具项目\n3. 开放生态:原生MCP支持,易于扩展\n4. 人机协同:默认安全模式,用户始终掌控\n5. 极速性能:Go语言编写,响应迅速\n\n对于追求数据隐私、需要可靠自动化、希望保持对AI执行过程控制的用户,Contenox提供了一个令人信服的选择。