# consult-llm：让AI助手调用更强AI模型的智能协作工具

> 一个支持Claude Code、Codex等AI编码助手调用更强推理模型的工具，支持GPT-5.5、Gemini 3.1 Pro、Claude Opus 4.7等模型，无需额外API密钥即可使用CLI后端。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-26T06:59:40.000Z
- 最近活动: 2026-04-26T07:22:54.207Z
- 热度: 163.6
- 关键词: AI助手, 模型协作, Claude Code, Gemini, GPT, MCP, CLI工具, 代码助手, 多模型, 智能咨询
- 页面链接: https://www.zingnex.cn/forum/thread/consult-llm-aiai
- Canonical: https://www.zingnex.cn/forum/thread/consult-llm-aiai
- Markdown 来源: ingested_event

---

# consult-llm：让AI助手调用更强AI模型的智能协作工具

## 背景与动机

在日常使用AI编码助手（如Claude Code、Codex、OpenCode）时，我们经常会遇到一些复杂的问题——那些需要深度推理、跨文件分析或架构层面思考的任务。虽然当前的AI助手已经很强大，但面对特别棘手的bug或设计决策时，它们可能也需要"请教"更强的模型。

这就是consult-llm诞生的原因。它创建了一个桥梁，让你的AI助手可以无缝调用更强大的推理模型，形成一个智能协作的层级结构。就像人类工程师在遇到困难时会请教资深架构师一样，AI助手现在也可以这样做。

## 核心功能与设计

consult-llm本质上是一个模型咨询工具，支持多种强大的后端模型：

- **GPT-5.5** - OpenAI的最新推理模型
- **Gemini 3.1 Pro** - Google的深度推理模型
- **Claude Opus 4.7** - Anthropic的顶级推理模型
- **DeepSeek V4 Pro** - 深度求索的专业版模型
- **MiniMax M2.7** - MiniMax的最新模型

### 三大核心命令

工具提供了三个主要的使用场景：

1. **`/consult`** - 向更强的模型咨询特定问题
2. **`/debate`** - 让多个模型辩论最佳方案并达成共识
3. **`/collab`** - 协作模式，结合多个模型的优势

### 独特的CLI后端支持

consult-llm的一大亮点是支持CLI后端。如果你已经订阅了Gemini、Codex、Cursor或OpenCode的CLI工具，你可以直接配置consult-llm使用这些CLI，**无需额外的API密钥**。这大大降低了使用门槛，让用户可以充分利用已有的订阅服务。

## 实际应用场景

### 场景一：复杂Bug诊断

假设你在处理一个棘手的竞态条件问题。你的AI助手（Claude Code）分析了代码，但不确定根本原因。这时你可以：

```
Consult LLM for assistance, use gemini
```

consult-llm会将问题描述、相关文件（HintsText.tsx、hints.ts等）打包发送给Gemini。Gemini分析后返回："根本原因是在handleConfirmGenerateHints函数中存在竞态条件。await generateHints()后组件状态在后台更新，但函数继续使用过时的activeSegment变量..."

这种跨模型的协作让你获得了更深层次的洞察。

### 场景二：架构决策辩论

当你面临一个架构选择时，可以使用`/debate`命令让多个模型从不同角度分析：

- GPT-5.5可能从性能角度分析
- Claude Opus可能从可维护性角度分析
- Gemini可能从实现复杂度角度分析

最终，consult-llm会综合各方观点，给出一个平衡的建议。

### 场景三：多轮对话与上下文保持

consult-llm支持`thread_id`来保持跨请求的连续对话。这意味着你可以分步骤解决复杂问题，而不必每次都重复背景信息。工具还支持git diff上下文注入，让模型能看到代码变更的全貌。

## 技术实现细节

### 技能系统（Skills）

consult-llm采用技能系统与AI助手集成。通过`consult-llm install-skills`命令，你可以将技能安装到Claude Code、Codex或OpenCode中。安装后，AI助手就能识别并使用`/consult`、`/debate`、`/collab`命令。

### 实时监控TUI

工具内置了一个实时监控界面（Monitor），可以在终端中查看活跃和历史运行状态。这对于理解模型调用的成本、延迟和响应质量非常有帮助。

### Web模式与剪贴板导出

对于需要浏览器中LLM的场景，consult-llm支持`--web`标志，可以将提示复制到剪贴板，方便粘贴到ChatGPT、Claude网页版等界面。

## 配置与使用

配置consult-llm非常直观。对于已有CLI订阅的用户：

```bash
# 配置Gemini CLI后端
consult-llm config set gemini.backend gemini-cli
# 需要预先运行: gemini login

# 配置Codex CLI后端
consult-llm config set openai.backend codex-cli
# 需要预先运行: codex login
```

对于使用API密钥的用户：

```bash
consult-llm config set openai.api_key your_openai_key
consult-llm config set gemini.api_key your_gemini_key
```

验证配置：

```bash
consult-llm models  # 查看可用模型
echo "hello" | consult-llm -m gemini  # 快速测试
```

## 从MCP迁移

consult-llm早期版本使用MCP（Model Context Protocol）作为传输层。如果你使用过那个版本，项目提供了详细的迁移指南。新版本更加稳定，支持更多模型，并且配置更加简单。

## 价值与意义

consult-llm代表了AI辅助开发的一个新方向：**分层智能协作**。它不是在取代现有的AI助手，而是在扩展它们的能力边界。通过让"助手"能够咨询"专家"，我们创造了一个更强大的问题解决网络。

这种模式有几个显著优势：

1. **成本优化** - 只在真正需要时才调用昂贵的顶级模型
2. **速度平衡** - 日常任务用快速模型，复杂问题用深度模型
3. **视角多样性** - 不同模型有不同优势，组合使用更全面
4. **无缝集成** - 不改变现有工作流，只是增加了"求助"选项

## 结语

consult-llm是一个实用的工具，它解决了AI辅助开发中的一个真实痛点：如何让AI助手在需要时获得更强的推理支持。通过支持多种顶级模型、CLI后端免API密钥使用、以及技能系统集成，它提供了一个优雅且强大的解决方案。

对于每天使用Claude Code、Codex等工具的开发者来说，consult-llm就像是一个"升级按钮"——当你遇到难题时，按下它，就能获得更强大的AI大脑的支持。
