Zing 论坛

正文

LLM-MDT:浏览器端多模型协作系统,让大语言模型组成多学科团队

一款纯前端实现的多学科团队(MDT)应用,让多个大语言模型以协作方式回答用户问题,通过匿名评审机制减少模型偏见,支持完整的三阶段推理流程。

LLMmulti-agentmultidisciplinary teamVue.jsfrontend-onlyreasoningClaudeOpenRoutercollaborative AImedical AI
发布时间 2026/05/16 18:13最近活动 2026/05/16 18:18预计阅读 3 分钟
LLM-MDT:浏览器端多模型协作系统,让大语言模型组成多学科团队
1

章节 01

【导读】LLM-MDT:浏览器端多模型协作系统,让大语言模型组成多学科团队

LLM-MDT是一款纯前端实现的多学科团队(MDT)应用,核心是让多个大语言模型组成协作团队,模拟人类专家会诊过程回答问题。它通过匿名评审机制减少模型偏见,支持完整的三阶段推理流程。纯前端架构确保用户API密钥和数据仅存本地,隐私安全,且部署简便、零运维成本,代码完全开源。

2

章节 02

背景与动机:单一LLM的局限与MDT模式的启发

在AI快速发展的今天,单一大语言模型虽能力强大,但面对复杂问题存在局限性,不同模型各有优势领域和知识盲区。借鉴人类医疗领域的多学科团队(MDT)模式,让多个AI模型协同工作,成为LLM-MDT项目诞生的核心动机。

3

章节 03

项目概述:纯前端架构的四大优势

LLM-MDT采用完全浏览器端运行的纯前端架构,所有计算和存储在用户本地完成,带来四大优势:

  1. 隐私保护:API密钥和对话数据仅存本地,不上传服务器;
  2. 部署简便:无需复杂后端,可直接部署到静态托管平台;
  3. 零运维成本:无服务器维护和宕机风险;
  4. 完全开源:基于Vue3+TypeScript+Tailwind CSS构建,代码透明。
4

章节 04

核心工作机制:三阶段协作推理流程

LLM-MDT模拟真实MDT会诊,分为三阶段:

独立诊断

配置的"理事会模型"同时独立回答问题,并行处理确保观点多样性;

同行评审

所有模型对第一阶段回答匿名评分,消除"模型名偏见",保证评审客观;

综合决策

"主席模型"整合原始回答和评审结果,生成最终综合答案。

5

章节 05

技术实现亮点:前端推理、智能API适配与本地存储

前端原生推理支持

支持请求模型提供可见思考内容,对Claude模型采用自适应或预算控制的扩展思考模式;

智能API适配

灵活适配不同提供商,如ZenMux路由到Anthropic Messages API,自动回退请求模式;

本地持久化存储

对话记录、阶段信息和评审元数据通过IndexedDB存于本地,可随时回顾完整推理过程。

6

章节 06

配置与使用:简单几步即可上手

使用LLM-MDT需配置:

  • 基础URL:OpenAI兼容的API端点(如OpenRouter、ZenMux);
  • API密钥:个人密钥;
  • 理事会模型:参与回答和评审的模型列表;
  • 主席模型:负责综合答案的模型;
  • 标题模型(可选):生成对话标题的轻量模型。 支持OpenAI、OpenRouter、ZenMux等兼容OpenAI API的服务。
7

章节 07

学术背景与应用前景:从研究到实用工具

LLM-MDT源于已发表研究,相关论文《ColaCare: Enhancing Electronic Health Record Modeling through Large Language Model-Driven Multi-Agent Collaboration》已在WWW 2025会议发表。该项目将MDT概念转化为实用工具,在医疗诊断、法律咨询、学术研究等复杂场景具有广阔应用前景。

8

章节 08

安全隐私考量与结语

安全隐私注意事项

  • API密钥存于本地,需注意设备或会话安全;
  • 适合个人自用或自托管,不适合公共信任部署;
  • 多用户环境需额外安全措施。

结语

LLM-MDT代表新AI范式:通过协作机制让多模型取长补短,降低使用门槛,提升可解释性和可靠性。随着多模态和智能体技术发展,此类协作架构将在更多领域展现价值。