# LLM-MDT：浏览器端多模型协作系统，让大语言模型组成多学科团队

> 一款纯前端实现的多学科团队(MDT)应用，让多个大语言模型以协作方式回答用户问题，通过匿名评审机制减少模型偏见，支持完整的三阶段推理流程。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-16T10:13:29.000Z
- 最近活动: 2026-05-16T10:18:58.242Z
- 热度: 163.9
- 关键词: LLM, multi-agent, multidisciplinary team, Vue.js, frontend-only, reasoning, Claude, OpenRouter, collaborative AI, medical AI
- 页面链接: https://www.zingnex.cn/forum/thread/llm-mdt
- Canonical: https://www.zingnex.cn/forum/thread/llm-mdt
- Markdown 来源: ingested_event

---

## 背景与动机

在人工智能快速发展的今天，单一的大语言模型虽然能力强大，但在面对复杂问题时往往存在局限性。不同模型有各自的优势领域和知识盲区，就像人类专家一样，各有所长。如何借鉴人类医疗领域的多学科团队(MDT, Multidisciplinary Team)模式，让多个AI模型协同工作，成为了一个有趣的研究方向。

LLM-MDT项目正是基于这一理念诞生的。它将多个大语言模型组织成一个"多学科团队"，通过分阶段协作的方式，模拟人类专家会诊的过程，从而获得更全面、更准确的回答。

## 项目概述

LLM-MDT是一个完全在浏览器端运行的多模型协作应用。与传统需要后端服务器的AI应用不同，该项目采用纯前端架构，所有计算和存储都在用户本地完成。这种设计带来了几个显著优势：

- **隐私保护**：用户的API密钥和对话数据仅存储在本地浏览器中，不会上传到任何服务器
- **部署简便**：无需配置复杂的后端环境，可直接部署到Cloudflare Pages等静态托管平台
- **零运维成本**：没有服务器意味着没有服务器维护成本和宕机风险
- **完全开源**：基于Vue 3 + TypeScript + Tailwind CSS构建，代码完全透明

## 核心工作机制

LLM-MDT的工作流程分为三个明确的阶段，模拟真实的多学科会诊过程：

### 第一阶段：独立诊断

在这个阶段，系统配置的"理事会模型"(Council Models)会同时、独立地对用户的问题给出各自的回答。每个模型基于自身的训练数据和知识库，从不同的角度分析问题。这种并行处理确保了观点的多样性，避免了单一模型的思维局限。

### 第二阶段：同行评审

这是LLM-MDT最具创新性的设计之一。在第二阶段，所有参与评审的模型会对第一阶段产生的回答进行匿名评分。关键之处在于，模型在评审时并不知道每个回答来自哪个模型——这种匿名机制有效消除了"模型名偏见"，让评审更加客观公正。

### 第三阶段：综合决策

最后，由指定的"主席模型"(Chairman Model)综合前两阶段的所有信息，包括原始回答和同行评审结果，生成最终的综合答案。主席模型扮演着类似医疗会诊中主任医师的角色，负责整合各方意见，给出权威结论。

## 技术实现亮点

### 前端原生推理支持

项目支持请求模型提供可见的思考内容(Reasoning Content)，当配置的提供商支持时(如Claude的扩展思考模式)，系统会自动启用这一功能。对于较新的Claude 4.6模型，采用自适应思考模式；而对于旧版本Claude模型，则使用预算控制的扩展思考模式。

### 智能API适配

LLM-MDT具有灵活的API适配能力。当配置ZenMux作为提供商且模型名称以"anthropic/"开头时，系统会自动将请求路由到ZenMux的Anthropic Messages API，确保Claude的思考块能够正确显示。同时，系统会首先尝试使用支持推理的Responses风格请求，失败时自动回退到标准聊天补全模式。

### 本地持久化存储

所有对话记录、阶段追踪信息和评审元数据都通过IndexedDB存储在浏览器本地。用户可以随时回顾历史对话，查看每个问题的完整推理过程，包括每个阶段的具体输出和评分细节。

## 配置与使用

使用LLM-MDT非常简单。用户只需在设置页面配置以下信息：

- **基础URL**：OpenAI兼容的API端点，如OpenRouter、ZenMux或直接OpenAI API
- **API密钥**：用户的个人API密钥
- **理事会模型**：每行一个模型名称，这些模型将参与第一阶段回答和第二阶段评审
- **主席模型**：负责最终综合答案的模型
- **标题模型**（可选）：专门用于生成对话标题的轻量级模型

支持的提供商包括OpenAI、OpenRouter、ZenMux等任何兼容OpenAI API格式的服务。

## 学术背景与应用前景

LLM-MDT的核心思想——利用大语言模型驱动的多智能体协作进行"团队式"推理——源于已发表的研究工作。相关论文《ColaCare: Enhancing Electronic Health Record Modeling through Large Language Model-Driven Multi-Agent Collaboration》已在WWW 2025会议上发表，详细探讨了多智能体协作在电子健康记录建模中的应用。

该项目将学术研究中的MDT概念转化为实用的前端工具，为研究人员和开发者提供了一个探索多模型协作的实验平台。在医疗诊断、法律咨询、学术研究等需要综合多方专业意见的复杂场景中，这种协作模式具有广阔的应用前景。

## 安全与隐私考量

需要特别说明的是，虽然LLM-MDT的设计初衷是保护用户隐私（API密钥不发送到项目后端），但用户仍需注意：

- API密钥存储在浏览器本地，任何能够访问该设备或浏览器会话的人都可以查看
- 这适合个人自用或自托管场景，但不适合需要共享访问的公共信任部署
- 对于多用户环境，建议配合额外的安全措施使用

## 结语

LLM-MDT代表了一种新的AI应用范式——不追求单一模型的极致性能，而是通过巧妙的协作机制，让多个模型取长补短。这种"群体智能"的思路不仅降低了使用门槛（可以使用多个小模型替代单个大模型），也为AI系统的可解释性和可靠性提供了新的思路。随着多模态模型和智能体技术的发展，类似的协作架构可能会在更多领域展现其价值。
