# consultant-cli：让AI助手随时召唤更强推理模型的轻量级工具

> consultant-cli 是一个面向自动化代理（如 Claude Code）设计的命令行工具，允许在需要时快速调用更强大的推理模型获取建议。它支持按调用配置模型参数、能力标签路由、文件与图像附件，且完全管道友好。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-11T06:13:06.000Z
- 最近活动: 2026-05-11T06:19:35.473Z
- 热度: 148.9
- 关键词: CLI, DeepSeek, OpenRouter, 推理模型, AI工具, 自动化代理, 命令行工具
- 页面链接: https://www.zingnex.cn/forum/thread/consultant-cli-ai
- Canonical: https://www.zingnex.cn/forum/thread/consultant-cli-ai
- Markdown 来源: ingested_event

---

## 背景：为什么需要 consultant-cli？\n\n在 AI 辅助编程和自动化工作流日益普及的今天，开发者经常面临一个困境：当前使用的 AI 助手（如 Claude Code）虽然功能强大，但在某些复杂推理场景下可能力不从心。传统解决方案通常需要切换会话或修改全局环境变量，既繁琐又容易打断工作流。\n\nconsultant-cli 应运而生——它是一个轻量级命令行工具，专为解决"在现有工作流中快速获取更强模型建议"这一需求而设计。核心理念是：**让自动化代理能够在关键时刻"请教专家"，而无需改变自身的运行环境**。\n\n## 项目概览与设计理念\n\nconsultant-cli 的设计围绕四个关键特性展开，这些特性使其区别于传统的 AI 客户端：\n\n### 1. 每次调用的精细化控制\n\n与依赖会话级环境变量的工具不同，consultant-cli 允许用户在每次调用时独立指定模型和推理强度。这意味着你可以在同一脚本中，对某些问题使用轻量级快速响应，对复杂问题则启用深度推理模式。\n\n### 2. 能力标签而非具体模型\n\n工具引入了"能力标签"（capability tags）的概念。用户通过 `-t reasoning`、`-t chinese`、`-t vision` 等标签描述需求，而非硬编码具体的提供商和模型组合。这种抽象层使得底层模型可以灵活切换，而上层调用代码无需修改。\n\n### 3. 灵活的文件与图像输入\n\n支持通过 `--file` 和 `--image` 显式标志附加文件，也支持在提示文本中使用 `@path` 语法内联引用。这种双重机制既满足了脚本自动化的需求，也方便了交互式使用。\n\n### 4. 管道友好的输出设计\n\n答案默认输出到 stdout，推理过程则独立处理。这种设计使得 consultant-cli 可以无缝融入 Unix 管道生态，与其他命令行工具协同工作。\n\n## 技术架构与实现细节\n\nconsultant-cli 采用简洁的模块化架构：\n\n```\nconsultant/\n├── consultant              # 可执行入口\n├── src/\n│   ├── cli.py             # 参数解析与主循环\n│   ├── tags.py            # 能力标签映射表\n│   ├── inputs.py          # @path 解析与附件处理\n│   ├── outputs.py         # 输出管理\n│   ├── sessions.py        # 多轮会话持久化\n│   └── providers/         # 提供商实现\n│       ├── deepseek.py    # DeepSeek V4 Pro 客户端\n│       └── openrouter.py  # OpenRouter 客户端\n└── secrets/               # API 密钥存储（gitignored）\n```\n\n### 标签映射机制\n\n标签系统的核心在于将抽象需求映射到具体的（提供商，模型，推理强度）三元组：\n\n| 标签 | 提供商 | 模型 | 默认推理强度 |\n|------|--------|------|--------------|\n| reasoning | openrouter | openai/gpt-5.5 | xhigh |\n| vision | openrouter | openai/gpt-5.5 | high |\n| chinese | deepseek | deepseek-v4-pro | max |\n\n这种设计的优雅之处在于，重定向标签目标只需修改 `src/tags.py` 中的单行配置，所有依赖该标签的技能和脚本都能自动适应。\n\n### 会话持久化实现\n\n对于需要多轮迭代的任务，consultant-cli 提供 `--session NAME` 参数。会话历史以 JSONL 格式存储于 `sessions/<NAME>.jsonl`，采用原子写入（临时文件+重命名）确保数据完整性。系统会锁定首轮的系统提示词，防止后续调用意外覆盖，同时要求用户在各轮次中保持标签一致性。\n\n## 典型使用场景\n\n### 场景一：代码审查与建议\n\n```bash\n./consultant -f src/auth.py -f src/db.php \\\n  \"is this safe under concurrent writes?\"\n```\n\n在自动化脚本中，代理可以将关键代码片段发送给 consultant-cli，获取专业安全审查意见，而无需中断当前会话。\n\n### 场景二：多语言内容生成\n\n```bash\n./consultant -t chinese -e max \"深度审稿：这篇论文的创新点是否充分？\"\n```\n\n利用 `chinese` 标签调用 DeepSeek V4 Pro 的中文生成能力，适合需要高质量中文输出的场景。\n\n### 场景三：图像理解与架构分析\n\n```bash\n./consultant -t vision -i diagram.png \"explain this architecture\"\n```\n\n`vision` 标签自动路由到支持图像输入的模型，简化了多模态任务的调用流程。\n\n### 场景四：复杂任务的迭代精炼\n\n```bash\n# 第一轮：启动会话并设置系统提示\n./consultant --session draft1 -s prompts/reviewer.md \\\n  -o draft.md \"draft a 七律 about autumn rain\"\n\n# 第二轮：基于前文继续迭代\n./consultant --session draft1 \\\n  \"the third couplet's parallelism feels forced — try again\"\n\n# 第三轮：精细化调整\n./consultant --session draft1 -o final.md \\\n  \"good, now expand the imagery in lines 5–6\"\n```\n\n会话机制使得复杂创作任务可以分阶段推进，保持上下文的连贯性。\n\n## 实际意义与价值\n\nconsultant-cli 的价值不仅在于技术实现，更在于它代表了一种新的 AI 协作范式：\n\n**分层推理架构**：在自动化代理和强推理模型之间建立轻量级桥梁，使得"何时调用何种能力"的决策可以外部化、可配置化。这与微服务架构中"服务编排"的理念异曲同工。\n\n**避免供应商锁定**：通过标签抽象，底层模型提供商可以随时切换，而上层业务逻辑不受影响。这对于需要长期维护的项目尤为重要。\n\n**增强现有工具链**：consultant-cli 不试图取代任何现有工具，而是作为增强层存在。它可以与 Claude Code、Cursor、或任何自定义代理框架配合使用。\n\n## 总结与展望\n\nconsultant-cli 展示了如何通过精心设计的 CLI 接口，在保持简洁性的同时提供强大的功能。它的设计理念——按调用控制、能力标签、管道友好——值得其他 AI 工具开发者借鉴。\n\n对于正在构建自动化工作流的开发者，consultant-cli 提供了一个实用的参考实现：如何在需要时优雅地"升级"推理能力，而无需重构整个系统。随着多模型生态的成熟，这种灵活的调用模式将变得越来越重要。
