章节 01
导读:ai-ide-local-proxer——连接Cursor与国产大模型的桥梁
ai-ide-local-proxer是一个零依赖的本地OpenAI兼容代理,旨在解决Cursor IDE和Codex CLI与DeepSeek、Moonshot/Kimi等国产推理模型之间的API格式不兼容及推理链丢失问题。它通过本地轻量级代理实现格式转换与字段映射,让开发者无需修改IDE配置即可享受国产大模型的完整推理能力。
正文
ai-ide-local-proxer 是一个零依赖的本地 OpenAI 兼容代理,让 Cursor IDE 和 Codex CLI 能够无缝调用 DeepSeek、Moonshot/Kimi 等国产推理模型。它解决了 API 格式不兼容和推理内容丢失的痛点,让开发者无需修改 IDE 即可享受国产大模型的完整推理能力。
章节 01
ai-ide-local-proxer是一个零依赖的本地OpenAI兼容代理,旨在解决Cursor IDE和Codex CLI与DeepSeek、Moonshot/Kimi等国产推理模型之间的API格式不兼容及推理链丢失问题。它通过本地轻量级代理实现格式转换与字段映射,让开发者无需修改IDE配置即可享受国产大模型的完整推理能力。
章节 02
随着国产大模型崛起,开发者希望将其接入Cursor IDE、Codex CLI等工具,但这些工具原生仅支持OpenAI格式API,国产模型接口存在差异,导致无法调用或丢失关键推理链(reasoning_content)。此外,OpenAI新推出的Responses API与旧格式不兼容,国产模型未完全对齐新规范,开发者面临放弃IDE或牺牲推理透明度的困境。
章节 03
代理实现符合OpenAI API规范的端点,接收Cursor的chat/completions格式请求,转换为国产模型所需请求体(处理认证头、参数映射、响应重组)。
将国产模型返回的reasoning_content字段重新注入对话历史,使开发者能查看模型思考过程。
为Codex CLI等工具提供双向翻译:将Responses API调用转为chat/completions格式发送给国产模型,再包装回Responses API格式返回。
章节 04
整个代理为独立可执行文件,无npm依赖,可直接复制运行,避免依赖冲突。
使用纯Node.js内置模块实现,减小攻击面,确保长期可维护性。
允许自由使用、修改和分发,适合个人与企业集成。
章节 05
在Cursor设置中,将OpenAI API基础地址指向本地代理端口(默认localhost:3000),填入国产模型API密钥即可。
通过环境变量或配置文件让Codex CLI指向本地代理,拦截API调用并处理格式转换。
支持配置多个国产模型端点,可在Cursor中通过模型名称切换后端(如代码补全用DeepSeek,对话用Kimi)。
章节 06
ai-ide-local-proxer降低了国产大模型使用门槛,开发者无需等待IDE官方支持或编写适配代码。它保持工具链开放,促进国产AI生态与国际开发工具融合;让Cursor/Codex CLI用户接入高性价比模型,保持原有开发体验;帮助国产模型厂商扩大用户基础,加速生态成熟。
章节 07
主要聚焦核心功能稳定性,流式响应完整处理、多模态输入支持等高级特性待提升;需跟进OpenAI API的持续演进。
社区可参与:支持更多国产模型专有特性、优化推理内容展示格式、提供更细粒度配置选项等。