Zing 论坛

正文

VS Code LiteLLM Provider:将私有模型接入 Copilot Chat 的桥梁

一款 VS Code 扩展,让开发者能够在 Copilot Chat 中使用 LiteLLM 代理的私有模型,支持原生 Responses API、推理控制以及 WSL 环境下的 IPC 通信。

VS CodeLiteLLMCopilot扩展WSLAPI私有模型
发布时间 2026/05/17 10:32最近活动 2026/05/17 10:50预计阅读 3 分钟
VS Code LiteLLM Provider:将私有模型接入 Copilot Chat 的桥梁
1

章节 01

导读 / 主楼:VS Code LiteLLM Provider:将私有模型接入 Copilot Chat 的桥梁

一款 VS Code 扩展,让开发者能够在 Copilot Chat 中使用 LiteLLM 代理的私有模型,支持原生 Responses API、推理控制以及 WSL 环境下的 IPC 通信。

2

章节 02

项目定位与核心价值

这款扩展的核心理念是"服务器中心化自动发现"——用户只需配置一个 LiteLLM 代理端点和主密钥,扩展就能自动查询 /v1/models 接口,发现并配置所有可用模型。这种设计大大简化了多模型环境的管理复杂度。

与市面上其他类似工具不同,该扩展坚持原生 Responses API 路线,不做 Chat Completions 的适配转换。这意味着它直接流式传输 output_text.deltaoutput_reasoning.deltaoutput_item.delta 事件,确保与 OpenAI 最新 API 规范的兼容性。

3

章节 03

原生 Responses API 支持

OpenAI 的 Responses API 是 Chat Completions API 的下一代演进,提供了更丰富的输出控制能力。该扩展完全基于 Responses API 构建,支持:

  • 流式文本输出
  • 推理内容(reasoning)流式传输
  • 输出项级别的增量更新

这种原生支持确保了与最新 OpenAI 功能的兼容性,也为未来 API 演进预留了空间。

4

章节 04

推理控制与思维链可视化

对于需要深度推理的场景,扩展提供了 thinkingLevel 配置(low/medium/high),可在模型管理面板中为每个模型单独设置。推理输出会以原生可折叠的思维块形式呈现,让开发者能够清晰看到模型的思考过程,同时保持对话界面的整洁。

5

章节 05

WSL Stdio 桥接方案

这是该扩展最具创新性的功能之一。在 WSL2 环境中,Hyper-V 虚拟网络经常出现不稳定的情况,导致 TCP 连接不可靠。扩展创新性地引入了 wsl+unix://wsl:// 端点方案,通过 IPC(进程间通信)而非 TCP 进行通信。

具体实现上,扩展会启动一个 WSL 子进程作为桥接工作器,通过 stdin/stdout 进行 JSON 行格式的 HTTP 中继。这种设计完全绕过了 TCP 网络层,为 WSL2 用户提供了稳定可靠的连接方案。

6

章节 06

安全设计考量

项目在安全方面做了细致考虑:

  • API 密钥加密存储:使用 VS Code 的 ExtensionContext.secrets API,将密钥存储在操作系统原生的密钥链中,而非明文保存在 settings.json
  • HTTPS 强制:远程端点必须使用 HTTPS,仅允许 localhost、私有 IP 和 Docker 内部地址使用 HTTP
  • 日志脱敏:所有错误消息中的 API 密钥都会被自动脱敏处理
  • 端点验证:配置时会探测 /v1/models/v1/responses 端点的可用性
7

章节 07

前置要求

  • VS Code Insiders 1.100.0+(chatProvider 提案 API 尚未进入稳定版)
  • Node.js 20.0.0+
  • 运行中的 LiteLLM Proxy(需暴露 /v1/responses/v1/models
8

章节 08

安装步骤

cd vscode-extensions/litellm-provider
npm install
npm run compile

扩展可以自动修补 VS Code 的 product.json 以启用 chatProvider 提案 API,或者手动启动:

code-insiders --enable-proposed-api agentic.litellm-provider