Zing 论坛

正文

cross-llm-mcp:一站式多模型MCP服务器,让AI助手同时调用九大主流LLM

cross-llm-mcp 是一个基于 Model Context Protocol (MCP) 的服务器,允许 Cursor、Claude Desktop 等 AI 编程环境通过一个统一接口访问 ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral 和 Hugging Face 九大主流 LLM 的 API。

MCPModel Context ProtocolLLMmulti-modelCursorClaude DesktopAPI aggregationChatGPTClaudeDeepSeek
发布时间 2026/04/17 12:41最近活动 2026/04/17 12:51预计阅读 12 分钟
cross-llm-mcp:一站式多模型MCP服务器,让AI助手同时调用九大主流LLM
1

章节 01

导读 / 主楼:cross-llm-mcp:一站式多模型MCP服务器,让AI助手同时调用九大主流LLM

cross-llm-mcp 是一个基于 Model Context Protocol (MCP) 的服务器,允许 Cursor、Claude Desktop 等 AI 编程环境通过一个统一接口访问 ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral 和 Hugging Face 九大主流 LLM 的 API。

2

章节 02

背景

背景:为什么需要统一的 LLM 访问层?\n\n在当前的 AI 开发环境中,开发者往往需要在多个大语言模型之间切换。不同的任务可能需要不同的模型能力:代码生成用 Claude,推理任务用 DeepSeek-R1,创意写作用 GPT-4o。然而,每个模型都有自己的 API 格式、认证方式和调用限制,这给开发带来了不小的负担。\n\nModel Context Protocol (MCP) 是 Anthropic 推出的开放协议,旨在标准化 AI 助手与外部工具和数据源的交互方式。cross-llm-mcp 正是基于这一协议,为开发者提供了一个统一的 LLM 访问层。\n\n## 项目概览:九大模型,一个接口\n\ncross-llm-mcp 支持目前市面上主流的九大 LLM 提供商:\n\n- OpenAI - ChatGPT 系列模型\n- Anthropic - Claude 系列模型\n- DeepSeek - DeepSeek-V3 和 DeepSeek-R1\n- Google - Gemini 系列\n- xAI - Grok\n- Moonshot AI - Kimi K2\n- Perplexity - Perplexity API\n- Mistral - Mistral 系列模型\n- Hugging Face - 通过 Inference Router 访问 Hub 上的开源模型\n\n安装方式非常简单,支持 Cursor 一键安装或 npm 全局安装:\n\nbash\nnpm install -g cross-llm-mcp\n\n\n## 核心功能:智能模型选择与成本优化\n\n### 标签化模型偏好\n\n该项目引入了基于标签的智能模型选择机制。开发者可以为不同类型的任务设置首选模型:\n\n- coding - 代码生成任务\n- business - 商业分析任务\n- reasoning - 逻辑推理任务\n- math - 数学计算任务\n- creative - 创意写作任务\n- general - 通用对话任务\n\n通过 set-user-preferences 工具,用户可以配置默认模型和成本偏好(旗舰版或经济版),系统会根据任务类型自动选择最合适的模型。\n\n### 批量调用与对比分析\n\ncall-all-llms 工具允许用户同时向所有配置的 LLM 发送相同的提示词,获取多角度的回答。这在以下场景特别有用:\n\n- 多视角分析 - 从不同模型的角度理解同一问题\n- 模型对比 - 评估不同模型在特定任务上的表现\n- 质量保障 - 通过交叉验证提高回答可靠性\n\n### Prompt 日志与分析\n\ncross-llm-mcp 内置了完整的 Prompt 日志系统,自动记录所有调用历史,包括:\n\n- 调用时间戳和模型信息\n- 提示词内容和参数\n- Token 消耗统计\n- 成本估算\n\n用户可以通过 get-prompt-historyget-prompt-stats 等工具查询历史记录,分析使用模式,优化成本结构。\n\n## 技术实现:基于 MCP SDK 的 TypeScript 项目\n\n该项目采用 Node.js + TypeScript 技术栈构建,核心依赖包括:\n\n- @modelcontextprotocol/sdk - MCP 官方 SDK\n- superagent - HTTP 客户端\n- zod - 运行时类型校验\n\n项目结构清晰,每个 LLM 提供商都有独立的工具实现,通过统一的接口层暴露给 MCP 客户端。配置信息存储在本地 JSON 文件中:\n\n- Unix/macOS: ~/.cross-llm-mcp/preferences.json\n- Windows: %APPDATA%/cross-llm-mcp/preferences.json\n\n## 配置与使用\n\n### Claude Desktop 配置\n\n在 claude_desktop_config.json 中添加以下配置:\n\njson\n{\n \"mcpServers\": {\n \"cross-llm-mcp\": {\n \"command\": \"node\",\n \"args\": [\"/absolute/path/to/cross-llm-mcp/build/index.js\"],\n \"env\": {\n \"OPENAI_API_KEY\": \"your_key\",\n \"ANTHROPIC_API_KEY\": \"your_key\",\n \"DEEPSEEK_API_KEY\": \"your_key\",\n \"GEMINI_API_KEY\": \"your_key\",\n \"XAI_API_KEY\": \"your_key\",\n \"KIMI_API_KEY\": \"your_key\",\n \"PERPLEXITY_API_KEY\": \"your_key\",\n \"MISTRAL_API_KEY\": \"your_key\",\n \"HF_TOKEN\": \"your_token\"\n }\n }\n }\n}\n\n\n### 使用示例\n\n获取单个模型的回答:\njson\n{\n \"tool\": \"call-chatgpt\",\n \"arguments\": {\n \"prompt\": \"解释量子计算的基本原理\",\n \"temperature\": 0.7,\n \"max_tokens\": 500\n }\n}\n\n\n同时调用所有模型:\njson\n{\n \"tool\": \"call-all-llms\",\n \"arguments\": {\n \"prompt\": \"写一首关于人工智能的短诗\",\n \"temperature\": 0.8\n }\n}\n\n\n## 实际应用场景\n\n### 1. AI 辅助编程\n在 Cursor 等 AI IDE 中,开发者可以根据当前任务自动切换模型。例如,写单元测试时调用 Claude,遇到复杂算法时切换到 DeepSeek-R1 进行推理。\n\n### 2. 内容创作与审核\n创意写作使用 GPT-4o,内容审核使用 Claude,通过多模型协作提高内容质量。\n\n### 3. 成本敏感型应用\n通过设置 costPreference: "cheaper",系统会自动选择性价比最高的模型处理通用任务,仅在关键任务上使用旗舰模型。\n\n### 4. 模型评估与选型\n在新项目启动阶段,使用 call-all-llms 对比不同模型在特定领域任务上的表现,为技术选型提供数据支撑。\n\n## 项目意义与展望\n\ncross-llm-mcp 代表了 AI 工具生态的一个重要发展方向:通过标准化协议实现多模型协同。随着 MCP 协议的普及,类似的统一访问层工具将会越来越多。\n\n对于开发者而言,这种架构带来的好处是显而易见的:\n\n- 降低集成成本 - 无需为每个模型单独开发适配层\n- 提高灵活性 - 随时切换模型而无需修改业务代码\n- 优化资源利用 - 根据任务特性选择最合适的模型\n- 便于评估对比 - 统一接口使 A/B 测试更加简单\n\n该项目的开源(MIT 许可证)也为社区贡献提供了空间,未来可能会看到更多模型提供商和高级功能的加入。\n\n## 总结\n\ncross-llm-mcp 是一个实用且设计精良的 MCP 服务器,它解决了多模型环境下的集成痛点。通过标签化偏好、批量调用和日志分析等功能,为开发者提供了一个完整的 LLM 管理解决方案。对于使用 Cursor、Claude Desktop 等 MCP 兼容工具的开发者来说,这是一个值得尝试的项目。

3

章节 03

补充观点 1

背景:为什么需要统一的 LLM 访问层?\n\n在当前的 AI 开发环境中,开发者往往需要在多个大语言模型之间切换。不同的任务可能需要不同的模型能力:代码生成用 Claude,推理任务用 DeepSeek-R1,创意写作用 GPT-4o。然而,每个模型都有自己的 API 格式、认证方式和调用限制,这给开发带来了不小的负担。\n\nModel Context Protocol (MCP) 是 Anthropic 推出的开放协议,旨在标准化 AI 助手与外部工具和数据源的交互方式。cross-llm-mcp 正是基于这一协议,为开发者提供了一个统一的 LLM 访问层。\n\n项目概览:九大模型,一个接口\n\ncross-llm-mcp 支持目前市面上主流的九大 LLM 提供商:\n\n- OpenAI - ChatGPT 系列模型\n- Anthropic - Claude 系列模型\n- DeepSeek - DeepSeek-V3 和 DeepSeek-R1\n- Google - Gemini 系列\n- xAI - Grok\n- Moonshot AI - Kimi K2\n- Perplexity - Perplexity API\n- Mistral - Mistral 系列模型\n- Hugging Face - 通过 Inference Router 访问 Hub 上的开源模型\n\n安装方式非常简单,支持 Cursor 一键安装或 npm 全局安装:\n\nbash\nnpm install -g cross-llm-mcp\n\n\n核心功能:智能模型选择与成本优化\n\n标签化模型偏好\n\n该项目引入了基于标签的智能模型选择机制。开发者可以为不同类型的任务设置首选模型:\n\n- coding - 代码生成任务\n- business - 商业分析任务\n- reasoning - 逻辑推理任务\n- math - 数学计算任务\n- creative - 创意写作任务\n- general - 通用对话任务\n\n通过 set-user-preferences 工具,用户可以配置默认模型和成本偏好(旗舰版或经济版),系统会根据任务类型自动选择最合适的模型。\n\n批量调用与对比分析\n\ncall-all-llms 工具允许用户同时向所有配置的 LLM 发送相同的提示词,获取多角度的回答。这在以下场景特别有用:\n\n- 多视角分析 - 从不同模型的角度理解同一问题\n- 模型对比 - 评估不同模型在特定任务上的表现\n- 质量保障 - 通过交叉验证提高回答可靠性\n\nPrompt 日志与分析\n\ncross-llm-mcp 内置了完整的 Prompt 日志系统,自动记录所有调用历史,包括:\n\n- 调用时间戳和模型信息\n- 提示词内容和参数\n- Token 消耗统计\n- 成本估算\n\n用户可以通过 get-prompt-historyget-prompt-stats 等工具查询历史记录,分析使用模式,优化成本结构。\n\n技术实现:基于 MCP SDK 的 TypeScript 项目\n\n该项目采用 Node.js + TypeScript 技术栈构建,核心依赖包括:\n\n- @modelcontextprotocol/sdk - MCP 官方 SDK\n- superagent - HTTP 客户端\n- zod - 运行时类型校验\n\n项目结构清晰,每个 LLM 提供商都有独立的工具实现,通过统一的接口层暴露给 MCP 客户端。配置信息存储在本地 JSON 文件中:\n\n- Unix/macOS: ~/.cross-llm-mcp/preferences.json\n- Windows: %APPDATA%/cross-llm-mcp/preferences.json\n\n配置与使用\n\nClaude Desktop 配置\n\n在 claude_desktop_config.json 中添加以下配置:\n\njson\n{\n \"mcpServers\": {\n \"cross-llm-mcp\": {\n \"command\": \"node\",\n \"args\": [\"/absolute/path/to/cross-llm-mcp/build/index.js\"],\n \"env\": {\n \"OPENAI_API_KEY\": \"your_key\",\n \"ANTHROPIC_API_KEY\": \"your_key\",\n \"DEEPSEEK_API_KEY\": \"your_key\",\n \"GEMINI_API_KEY\": \"your_key\",\n \"XAI_API_KEY\": \"your_key\",\n \"KIMI_API_KEY\": \"your_key\",\n \"PERPLEXITY_API_KEY\": \"your_key\",\n \"MISTRAL_API_KEY\": \"your_key\",\n \"HF_TOKEN\": \"your_token\"\n }\n }\n }\n}\n\n\n使用示例\n\n获取单个模型的回答:\njson\n{\n \"tool\": \"call-chatgpt\",\n \"arguments\": {\n \"prompt\": \"解释量子计算的基本原理\",\n \"temperature\": 0.7,\n \"max_tokens\": 500\n }\n}\n\n\n同时调用所有模型:\njson\n{\n \"tool\": \"call-all-llms\",\n \"arguments\": {\n \"prompt\": \"写一首关于人工智能的短诗\",\n \"temperature\": 0.8\n }\n}\n\n\n实际应用场景\n\n1. AI 辅助编程\n在 Cursor 等 AI IDE 中,开发者可以根据当前任务自动切换模型。例如,写单元测试时调用 Claude,遇到复杂算法时切换到 DeepSeek-R1 进行推理。\n\n2. 内容创作与审核\n创意写作使用 GPT-4o,内容审核使用 Claude,通过多模型协作提高内容质量。\n\n3. 成本敏感型应用\n通过设置 costPreference: "cheaper",系统会自动选择性价比最高的模型处理通用任务,仅在关键任务上使用旗舰模型。\n\n4. 模型评估与选型\n在新项目启动阶段,使用 call-all-llms 对比不同模型在特定领域任务上的表现,为技术选型提供数据支撑。\n\n项目意义与展望\n\ncross-llm-mcp 代表了 AI 工具生态的一个重要发展方向:通过标准化协议实现多模型协同。随着 MCP 协议的普及,类似的统一访问层工具将会越来越多。\n\n对于开发者而言,这种架构带来的好处是显而易见的:\n\n- 降低集成成本 - 无需为每个模型单独开发适配层\n- 提高灵活性 - 随时切换模型而无需修改业务代码\n- 优化资源利用 - 根据任务特性选择最合适的模型\n- 便于评估对比 - 统一接口使 A/B 测试更加简单\n\n该项目的开源(MIT 许可证)也为社区贡献提供了空间,未来可能会看到更多模型提供商和高级功能的加入。\n\n总结\n\ncross-llm-mcp 是一个实用且设计精良的 MCP 服务器,它解决了多模型环境下的集成痛点。通过标签化偏好、批量调用和日志分析等功能,为开发者提供了一个完整的 LLM 管理解决方案。对于使用 Cursor、Claude Desktop 等 MCP 兼容工具的开发者来说,这是一个值得尝试的项目。