章节 01
导读 / 主楼:VS Code LiteLLM Provider:将私有模型接入 Copilot Chat 的桥梁
一款 VS Code 扩展,让开发者能够在 Copilot Chat 中使用 LiteLLM 代理的私有模型,支持原生 Responses API、推理控制以及 WSL 环境下的 IPC 通信。
正文
一款 VS Code 扩展,让开发者能够在 Copilot Chat 中使用 LiteLLM 代理的私有模型,支持原生 Responses API、推理控制以及 WSL 环境下的 IPC 通信。
章节 01
一款 VS Code 扩展,让开发者能够在 Copilot Chat 中使用 LiteLLM 代理的私有模型,支持原生 Responses API、推理控制以及 WSL 环境下的 IPC 通信。
章节 02
这款扩展的核心理念是"服务器中心化自动发现"——用户只需配置一个 LiteLLM 代理端点和主密钥,扩展就能自动查询 /v1/models 接口,发现并配置所有可用模型。这种设计大大简化了多模型环境的管理复杂度。
与市面上其他类似工具不同,该扩展坚持原生 Responses API 路线,不做 Chat Completions 的适配转换。这意味着它直接流式传输 output_text.delta、output_reasoning.delta 和 output_item.delta 事件,确保与 OpenAI 最新 API 规范的兼容性。
章节 03
OpenAI 的 Responses API 是 Chat Completions API 的下一代演进,提供了更丰富的输出控制能力。该扩展完全基于 Responses API 构建,支持:
这种原生支持确保了与最新 OpenAI 功能的兼容性,也为未来 API 演进预留了空间。
章节 04
对于需要深度推理的场景,扩展提供了 thinkingLevel 配置(low/medium/high),可在模型管理面板中为每个模型单独设置。推理输出会以原生可折叠的思维块形式呈现,让开发者能够清晰看到模型的思考过程,同时保持对话界面的整洁。
章节 05
这是该扩展最具创新性的功能之一。在 WSL2 环境中,Hyper-V 虚拟网络经常出现不稳定的情况,导致 TCP 连接不可靠。扩展创新性地引入了 wsl+unix:// 和 wsl:// 端点方案,通过 IPC(进程间通信)而非 TCP 进行通信。
具体实现上,扩展会启动一个 WSL 子进程作为桥接工作器,通过 stdin/stdout 进行 JSON 行格式的 HTTP 中继。这种设计完全绕过了 TCP 网络层,为 WSL2 用户提供了稳定可靠的连接方案。
章节 06
项目在安全方面做了细致考虑:
ExtensionContext.secrets API,将密钥存储在操作系统原生的密钥链中,而非明文保存在 settings.json/v1/models 和 /v1/responses 端点的可用性章节 07
/v1/responses 和 /v1/models)章节 08
cd vscode-extensions/litellm-provider
npm install
npm run compile
扩展可以自动修补 VS Code 的 product.json 以启用 chatProvider 提案 API,或者手动启动:
code-insiders --enable-proposed-api agentic.litellm-provider