Zing 论坛

正文

WhaleCouncil:多模型协作审查,为 AI 决策提供独立第二意见

WhaleCouncil 是一个开源的 CLI 工具,通过并行调用多个 AI 模型获取独立意见,自动识别分歧点并生成结构化报告。本文介绍其设计理念、工作流程和实际应用场景,探讨多模型协作如何提升 AI 辅助决策的可靠性。

AI决策多模型协作代码审查CLI工具技术选型开源项目
发布时间 2026/05/16 21:15最近活动 2026/05/16 21:21预计阅读 4 分钟
WhaleCouncil:多模型协作审查,为 AI 决策提供独立第二意见
1

章节 01

导读 / 主楼:WhaleCouncil:多模型协作审查,为 AI 决策提供独立第二意见

WhaleCouncil 是一个开源的 CLI 工具,通过并行调用多个 AI 模型获取独立意见,自动识别分歧点并生成结构化报告。本文介绍其设计理念、工作流程和实际应用场景,探讨多模型协作如何提升 AI 辅助决策的可靠性。

2

章节 02

背景:单一 AI 模型的局限性

在使用 AI 辅助决策时,开发者常常面临一个根本性问题:单一模型只能提供单一视角。这个视角可能基于错误假设、遗漏边界情况,或者产生自信幻觉。当你询问应该使用 Redis 还是 Postgres 存储会话数据时,一个模型可能基于延迟考虑推荐 Redis,却忽略了你的技术栈中已经运行着 Postgres 这一关键信息。

这种锚定效应在 AI 辅助编程和架构决策中尤为常见。模型可能过度依赖某个假设,而用户由于缺乏对比参考,难以察觉潜在问题。WhaleCouncil 项目正是针对这一痛点提出的解决方案。

3

章节 03

项目简介:什么是 WhaleCouncil

WhaleCouncil 是一个 Python 编写的命令行工具,核心理念是独立第二意见。它将你的任务同时发送给多个 AI 模型,收集各自的独立回复,识别其中的分歧点,并综合生成一份结构化报告。

与简单的投票机制不同,WhaleCouncil 的设计强调以下几点:

  • 第一轮完全独立:每个模型只接收任务和中性系统提示,看不到其他模型的输出
  • 结构化差异分析:分歧不是被埋没在冗长的总结中,而是被明确提取和呈现
  • 行动导向输出:综合报告指向下一步需要解决的问题,而非仅仅罗列各方观点

项目的核心洞察是:一个 AI 与两个 AI 之间的差异是质的不同,而非量的差异。

4

章节 04

工作流程:两轮审查机制

WhaleCouncil 采用独特的两轮审查流程:

5

章节 05

第一轮:独立意见收集

输入的任务被并行分发给多个模型(默认包括 Claude、Codex、Gemini)。每个模型在完全独立的环境中生成回复,就像分别咨询了三位不同的专家。

6

章节 06

第二轮:综合与分歧提取

一个评审模型接收所有独立意见,生成结构化差异分析:

  • 共识点:各方都认同的内容
  • 分歧点:存在不同意见的地方
  • 分歧揭示的问题:分歧背后反映的关键考量
  • 下一步问题:需要用户澄清或决策的关键问题

这种设计确保用户不仅看到答案,更看到答案背后的推理差异和需要进一步思考的方向。

7

章节 07

实际使用示例

WhaleCouncil 的使用非常直观。以技术选型场景为例:

$ council review "Should I use Redis or Postgres for this session store?"

WhaleCouncil — reviewing with: claude, codex, gemini
────────────────────────────────────────────────────
claude ✓ Redis for session data. Low latency reads, built-in TTL...
codex ✓ Postgres if you already have it. Avoid infra complexity...
gemini ✓ Depends on scale. Redis at >10k concurrent sessions...
────────────────────────────────────────────────────
⚡ Disagreement: Redis vs Postgres — codex flags infra cost, others favor Redis.
→ Key question to resolve: Do you already run Postgres in this stack?

这个例子完美展示了 WhaleCouncil 的价值:三个模型给出了不同的侧重点,而工具明确指出了关键分歧——codex 关注基础设施复杂度,而其他模型关注性能。最终引导用户思考的关键问题是:你的技术栈中是否已经运行着 Postgres?

8

章节 08

支持的模型与配置

WhaleCouncil 支持多种模型提供商:

  • claude:Anthropic,需要 ANTHROPIC_API_KEY
  • claude-cli:本地 Claude,无需 API 密钥,需安装 claude CLI
  • codex:OpenAI,需要 OPENAI_API_KEY
  • codex-cli:本地 Codex,无需 API 密钥,需安装 codex CLI
  • gemini:Google,需要 GEMINI_API_KEY

用户可以通过命令行参数选择模型,也可以在 ~/.council.toml 配置文件中设置默认值。