Zing 论坛

正文

consult-llm:让AI助手调用更强AI模型的智能协作工具

一个支持Claude Code、Codex等AI编码助手调用更强推理模型的工具,支持GPT-5.5、Gemini 3.1 Pro、Claude Opus 4.7等模型,无需额外API密钥即可使用CLI后端。

AI助手模型协作Claude CodeGeminiGPTMCPCLI工具代码助手多模型智能咨询
发布时间 2026/04/26 14:59最近活动 2026/04/26 15:22预计阅读 3 分钟
consult-llm:让AI助手调用更强AI模型的智能协作工具
1

章节 01

导读 / 主楼:consult-llm:让AI助手调用更强AI模型的智能协作工具

一个支持Claude Code、Codex等AI编码助手调用更强推理模型的工具,支持GPT-5.5、Gemini 3.1 Pro、Claude Opus 4.7等模型,无需额外API密钥即可使用CLI后端。

2

章节 02

背景与动机

在日常使用AI编码助手(如Claude Code、Codex、OpenCode)时,我们经常会遇到一些复杂的问题——那些需要深度推理、跨文件分析或架构层面思考的任务。虽然当前的AI助手已经很强大,但面对特别棘手的bug或设计决策时,它们可能也需要"请教"更强的模型。

这就是consult-llm诞生的原因。它创建了一个桥梁,让你的AI助手可以无缝调用更强大的推理模型,形成一个智能协作的层级结构。就像人类工程师在遇到困难时会请教资深架构师一样,AI助手现在也可以这样做。

3

章节 03

核心功能与设计

consult-llm本质上是一个模型咨询工具,支持多种强大的后端模型:

  • GPT-5.5 - OpenAI的最新推理模型
  • Gemini 3.1 Pro - Google的深度推理模型
  • Claude Opus 4.7 - Anthropic的顶级推理模型
  • DeepSeek V4 Pro - 深度求索的专业版模型
  • MiniMax M2.7 - MiniMax的最新模型
4

章节 04

三大核心命令

工具提供了三个主要的使用场景:

  1. /consult - 向更强的模型咨询特定问题
  2. /debate - 让多个模型辩论最佳方案并达成共识
  3. /collab - 协作模式,结合多个模型的优势
5

章节 05

独特的CLI后端支持

consult-llm的一大亮点是支持CLI后端。如果你已经订阅了Gemini、Codex、Cursor或OpenCode的CLI工具,你可以直接配置consult-llm使用这些CLI,无需额外的API密钥。这大大降低了使用门槛,让用户可以充分利用已有的订阅服务。

6

章节 06

场景一:复杂Bug诊断

假设你在处理一个棘手的竞态条件问题。你的AI助手(Claude Code)分析了代码,但不确定根本原因。这时你可以:

Consult LLM for assistance, use gemini

consult-llm会将问题描述、相关文件(HintsText.tsx、hints.ts等)打包发送给Gemini。Gemini分析后返回:"根本原因是在handleConfirmGenerateHints函数中存在竞态条件。await generateHints()后组件状态在后台更新,但函数继续使用过时的activeSegment变量..."

这种跨模型的协作让你获得了更深层次的洞察。

7

章节 07

场景二:架构决策辩论

当你面临一个架构选择时,可以使用/debate命令让多个模型从不同角度分析:

  • GPT-5.5可能从性能角度分析
  • Claude Opus可能从可维护性角度分析
  • Gemini可能从实现复杂度角度分析

最终,consult-llm会综合各方观点,给出一个平衡的建议。

8

章节 08

场景三:多轮对话与上下文保持

consult-llm支持thread_id来保持跨请求的连续对话。这意味着你可以分步骤解决复杂问题,而不必每次都重复背景信息。工具还支持git diff上下文注入,让模型能看到代码变更的全貌。