# cross-llm-mcp：一站式多模型MCP服务器，让AI助手同时调用九大主流LLM

> cross-llm-mcp 是一个基于 Model Context Protocol (MCP) 的服务器，允许 Cursor、Claude Desktop 等 AI 编程环境通过一个统一接口访问 ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral 和 Hugging Face 九大主流 LLM 的 API。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-17T04:41:35.000Z
- 最近活动: 2026-04-17T04:51:17.864Z
- 热度: 126.8
- 关键词: MCP, Model Context Protocol, LLM, multi-model, Cursor, Claude Desktop, API aggregation, ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, TypeScript
- 页面链接: https://www.zingnex.cn/forum/thread/cross-llm-mcp-mcp-aillm
- Canonical: https://www.zingnex.cn/forum/thread/cross-llm-mcp-mcp-aillm
- Markdown 来源: ingested_event

---

## 背景：为什么需要统一的 LLM 访问层？\n\n在当前的 AI 开发环境中，开发者往往需要在多个大语言模型之间切换。不同的任务可能需要不同的模型能力：代码生成用 Claude，推理任务用 DeepSeek-R1，创意写作用 GPT-4o。然而，每个模型都有自己的 API 格式、认证方式和调用限制，这给开发带来了不小的负担。\n\nModel Context Protocol (MCP) 是 Anthropic 推出的开放协议，旨在标准化 AI 助手与外部工具和数据源的交互方式。cross-llm-mcp 正是基于这一协议，为开发者提供了一个统一的 LLM 访问层。\n\n## 项目概览：九大模型，一个接口\n\ncross-llm-mcp 支持目前市面上主流的九大 LLM 提供商：\n\n- **OpenAI** - ChatGPT 系列模型\n- **Anthropic** - Claude 系列模型\n- **DeepSeek** - DeepSeek-V3 和 DeepSeek-R1\n- **Google** - Gemini 系列\n- **xAI** - Grok\n- **Moonshot AI** - Kimi K2\n- **Perplexity** - Perplexity API\n- **Mistral** - Mistral 系列模型\n- **Hugging Face** - 通过 Inference Router 访问 Hub 上的开源模型\n\n安装方式非常简单，支持 Cursor 一键安装或 npm 全局安装：\n\n```bash\nnpm install -g cross-llm-mcp\n```\n\n## 核心功能：智能模型选择与成本优化\n\n### 标签化模型偏好\n\n该项目引入了基于标签的智能模型选择机制。开发者可以为不同类型的任务设置首选模型：\n\n- **coding** - 代码生成任务\n- **business** - 商业分析任务\n- **reasoning** - 逻辑推理任务\n- **math** - 数学计算任务\n- **creative** - 创意写作任务\n- **general** - 通用对话任务\n\n通过 `set-user-preferences` 工具，用户可以配置默认模型和成本偏好（旗舰版或经济版），系统会根据任务类型自动选择最合适的模型。\n\n### 批量调用与对比分析\n\n`call-all-llms` 工具允许用户同时向所有配置的 LLM 发送相同的提示词，获取多角度的回答。这在以下场景特别有用：\n\n- **多视角分析** - 从不同模型的角度理解同一问题\n- **模型对比** - 评估不同模型在特定任务上的表现\n- **质量保障** - 通过交叉验证提高回答可靠性\n\n### Prompt 日志与分析\n\ncross-llm-mcp 内置了完整的 Prompt 日志系统，自动记录所有调用历史，包括：\n\n- 调用时间戳和模型信息\n- 提示词内容和参数\n- Token 消耗统计\n- 成本估算\n\n用户可以通过 `get-prompt-history`、`get-prompt-stats` 等工具查询历史记录，分析使用模式，优化成本结构。\n\n## 技术实现：基于 MCP SDK 的 TypeScript 项目\n\n该项目采用 Node.js + TypeScript 技术栈构建，核心依赖包括：\n\n- `@modelcontextprotocol/sdk` - MCP 官方 SDK\n- `superagent` - HTTP 客户端\n- `zod` - 运行时类型校验\n\n项目结构清晰，每个 LLM 提供商都有独立的工具实现，通过统一的接口层暴露给 MCP 客户端。配置信息存储在本地 JSON 文件中：\n\n- **Unix/macOS**: `~/.cross-llm-mcp/preferences.json`\n- **Windows**: `%APPDATA%/cross-llm-mcp/preferences.json`\n\n## 配置与使用\n\n### Claude Desktop 配置\n\n在 `claude_desktop_config.json` 中添加以下配置：\n\n```json\n{\n  \"mcpServers\": {\n    \"cross-llm-mcp\": {\n      \"command\": \"node\",\n      \"args\": [\"/absolute/path/to/cross-llm-mcp/build/index.js\"],\n      \"env\": {\n        \"OPENAI_API_KEY\": \"your_key\",\n        \"ANTHROPIC_API_KEY\": \"your_key\",\n        \"DEEPSEEK_API_KEY\": \"your_key\",\n        \"GEMINI_API_KEY\": \"your_key\",\n        \"XAI_API_KEY\": \"your_key\",\n        \"KIMI_API_KEY\": \"your_key\",\n        \"PERPLEXITY_API_KEY\": \"your_key\",\n        \"MISTRAL_API_KEY\": \"your_key\",\n        \"HF_TOKEN\": \"your_token\"\n      }\n    }\n  }\n}\n```\n\n### 使用示例\n\n获取单个模型的回答：\n```json\n{\n  \"tool\": \"call-chatgpt\",\n  \"arguments\": {\n    \"prompt\": \"解释量子计算的基本原理\",\n    \"temperature\": 0.7,\n    \"max_tokens\": 500\n  }\n}\n```\n\n同时调用所有模型：\n```json\n{\n  \"tool\": \"call-all-llms\",\n  \"arguments\": {\n    \"prompt\": \"写一首关于人工智能的短诗\",\n    \"temperature\": 0.8\n  }\n}\n```\n\n## 实际应用场景\n\n### 1. AI 辅助编程\n在 Cursor 等 AI IDE 中，开发者可以根据当前任务自动切换模型。例如，写单元测试时调用 Claude，遇到复杂算法时切换到 DeepSeek-R1 进行推理。\n\n### 2. 内容创作与审核\n创意写作使用 GPT-4o，内容审核使用 Claude，通过多模型协作提高内容质量。\n\n### 3. 成本敏感型应用\n通过设置 `costPreference: "cheaper"`，系统会自动选择性价比最高的模型处理通用任务，仅在关键任务上使用旗舰模型。\n\n### 4. 模型评估与选型\n在新项目启动阶段，使用 `call-all-llms` 对比不同模型在特定领域任务上的表现，为技术选型提供数据支撑。\n\n## 项目意义与展望\n\ncross-llm-mcp 代表了 AI 工具生态的一个重要发展方向：通过标准化协议实现多模型协同。随着 MCP 协议的普及，类似的统一访问层工具将会越来越多。\n\n对于开发者而言，这种架构带来的好处是显而易见的：\n\n- **降低集成成本** - 无需为每个模型单独开发适配层\n- **提高灵活性** - 随时切换模型而无需修改业务代码\n- **优化资源利用** - 根据任务特性选择最合适的模型\n- **便于评估对比** - 统一接口使 A/B 测试更加简单\n\n该项目的开源（MIT 许可证）也为社区贡献提供了空间，未来可能会看到更多模型提供商和高级功能的加入。\n\n## 总结\n\ncross-llm-mcp 是一个实用且设计精良的 MCP 服务器，它解决了多模型环境下的集成痛点。通过标签化偏好、批量调用和日志分析等功能，为开发者提供了一个完整的 LLM 管理解决方案。对于使用 Cursor、Claude Desktop 等 MCP 兼容工具的开发者来说，这是一个值得尝试的项目。
